Schlagwort-Archive: Grafikkarte

Ach, ich habe die letzten Monate so wenige Beiträge geschrieben, dass ich jetzt der Meinung bin, das kompensieren zu müssen, indem ich über echt uninteressante Dinge aus meinem Leben berichte. Aber vielleicht gibt es ja jemanden, der dieselben Gedanken und Probleme wie ich hat. Also dann, kopfüber in das nächste Blog-Thema. In der heutigen Folge: Was ich mir zuletzt angeschafft habe und mein Erfahrungsbericht dazu.

Ich bin ein Mensch, der am PC gerne sehr viele Fenster offen hat. Gleichzeitig! Damit ich alles im Blick haben kann. Das ist beispielsweise sinnvoll, wenn man ständig zwischen Instant Messenger, Dateibrowser, Webbrowser, E-Mail-Programm, Emulator, Texteditor, Entwicklungsumgebung und Grafikbearbeitungsprogramm hin- und herwechseln muss. Natürlich könnte ich auch in der Taskleiste immer umschalten, oder Alt+Tab bemühen (und das mache ich meistens auch so), aber es ist praktischer, wenn ich das erst gar nicht muss. Es ist eben viel komfortabler, wenn ich meine Arbeitsgeräte und Werkzeuge immer alle direkt griffbereit vor mir liegen habe, und nicht ständig in die untere Schublade greifen muss, um zwischen Stift und Schere zu wechseln.

Schon vor dreieinhalb Jahren habe ich mir privat erstmals eine Zwei-Monitor-Konfiguration aufgebaut, die mir völlig neue Möglichkeiten eröffnet hat. Damit kann man etwa mehrere Anwendungen auf verschiedene Monitore aufteilen, und selbst Vollbildanwendungen sind jetzt kein Grund mehr, nicht doch mehrere Programme im Blick zu behalten. Man könnte auf dem linken Monitor etwas im Vollbildmodus spielen, während auf dem rechten Monitor irgendeine Webseite mit hilfreichen Tipps geöffnet ist. Oder man könnte auf dem linken Monitor einen unglaublich wichtigen Artikel für einen bedeutenden Blog schreiben, während auf dem rechten Monitor gleichzeitig irgendein spannender Stream läuft. Und dann … öh … Oh, sorry, ich war gerade ein wenig abgelenkt. Naja, beim Arbeiten sollte man vielleicht doch besser für eine ablenkungsfreie Umgebung sorgen. Weniger ist da oft mehr. Aber in den meisten Fällen bin ich schon ganz glücklich damit, viel Desktopfläche zu haben.

Beim Thema Desktopfläche habe ich kürzlich wieder einen gewaltigen Sprung gemacht. Meine neueste technische Anschaffung ist ein Business-Monitor mit 28 Zoll Bilddiagonale, der den alten 27er nochmals leicht überbietet. Aber der wichtigste Punkt ist, dass es sich um einen UHD-Monitor mit der wahnwitzigen Auflösung von 3840×2160 handelt, ergo „4K“. Damit kann ich endlich 4K-Filmmaterial in nativer Auflösung bestaunen, ohne Skalierung. Mit dem neuen Monsterdisplay auf meinem Schreibtisch wurde dann leider mein alter, tapferer 24 Zoll-Monitor mit der 1920×1200-Auflösung in den Ruhestand geschickt. Neun Jahre lang hat das kleine Kerlchen alles mitgemacht, und selbst jetzt ist er noch gut in Form, obwohl er vor einigen Jahren auf einer Autofahrt einen dicken Kratzer auf der Mattscheibe abbekommen hat. Aber als Unterwegs-Monitor für kleine LAN-Partys bleibt er mir noch erhalten, denn dann spare ich mir das viele Ab- und Wiederaufbauen meiner Monitore.

Wo war ich? Achja… Wie ist das Leben mit so einer exorbitant hohen Desktopauflösung? Auf der einen Seite schon echt klasse, weil man damit wirklich viel Raum für alle seine Fenster hat. Man muss bedenken, der Monitor hat genug Platz für vier Full-HD-Videos, in jeder Ecke eins. Auf der anderen Seite ist es jedoch nicht immer ganz einfach. Ich sollte zumindest kurz auf den größten Nachteil eingehen: Es ist alles verdammt klein. Ich schätze mal, ein 28 Zoll-Monitor ist wirklich die absolute Untergrenze, ab der 4K funktioniert. Manchmal ertappe ich mich dabei, wie ich mit den Augen näher zum Bildschirm gehe, um kleine Texte entziffern zu können. Man gewöhnt sich aber recht schnell an die Mini-Bildschirmelemente, muss beim Klicken ein wenig besser zielen und auch mehr mit der Maus rudern, vor allem wenn man von der linken Kante des linken Monitors bis zur rechten Kante des rechten Monitors fahren will. Das sind bei mir zusammen immerhin 6400 Pixel Breite.

Aber das ist alles noch kein großes Problem. Bislang normalgroße Schriften sind neuerdings eben kleine Schriften. Und bei den kleinen Schriften muss man ab jetzt genauer hingucken. Natürlich kann man das Betriebssystem auch so einstellen, dass es alle Fensterelemente, Icons und Texte automatisch hochskaliert – aber wozu dann überhaupt 4K? Dann hätte ich einfach bei meinem alten Monitor bleiben können und noch eine Menge Geld gespart. Natürlich will ich den neu gewonnenen Platz auch nutzen, und nicht gleich dadurch wieder vergeuden, indem ich alles auf dem Bildschirm größer mache. Bilddateien, die mir noch vor 15 Jahren bequem als Windows-Wallpaper dienlich waren, sind mit dem neuen Monitor nur noch unwesentlich mehr als Thumbnails. Der einsame Browser im abgebildeten Screenshot ist übrigens schon geringfügig größer als Full-HD.

Meine größte Sorge vor meiner Anschaffung war ursprünglich: Packt meine Grafikkarte überhaupt 4K-Auflösung? Ein wenig Recherche in Internetforen und zu den Grafikkarten-Spezifikationen diverser älterer Modelle hat mir Zuversicht gegeben, und tatsächlich war meine Sorge eher unbegründet, denn in den allermeisten Fällen lautet die Antwort: Ja! 4K-Desktopauflösung ist für eine halbwegs moderne Grafikkarte selbst im Low-Budget-Bereich kein großes Kunststück, sogar Onboard-Grafikchips kriegen das längst mühelos hin. Meine Grafikkarte steuert auch gerne zwei Monitore mit 4K-Auflösung an, wenn man möchte. Einfach per HDMI, DVI oder DisplayPort anschließen und los gehts. Ob man damit Spiele in 4K-Auflösung spielen sollte, ist natürlich eine gänzlich andere Frage. In den allermeisten Fällen ist das weniger empfehlenswert, außer man besitzt eine teure Gaming-Grafikkarte. Aber kann man jedes Spiel immer auch in einer niedrigeren Auflösung rendern.

Wie sieht das denn mit tollem UHD-Filmmaterial aus? Kriegt man da wenigstens ordentlich was fürs Auge geboten? Ja und nein. Zum einen muss ich gestehen, dass ein 28 Zoll-Monitor wahrscheinlich nicht unbedingt ideal ist, um Filme in so hoher Auflösung qualitativ ausreichend zu beurteilen. Kurzgesagt, in schnellen Action-Sequenzen in denen sich relativ viel bewegt, hat Ultra-HD-Material praktisch keinen wahrnehmbaren Vorteil gegenüber Full-HD, schon gar nicht wenn man sich einfach nur auf den Film konzentriert. Seine größte Stärke spielt 4K z.B. bei Nahaufnahmen von Gesichtern aus, wenn man genug Zeit hat, sich die vielen winzigen Details anzusehen und darüber zu staunen. Aber das sind eigentlich Ausnahmen. In den meisten Fällen dürfte es Durchschnittsmenschen ohne ausgeprägtes Qualitätsempfinden oder Technikwissen schwerfallen, zu erkennen, ob sie gerade einen UHD-Film sehen oder nicht, zumal sehr viele UHD-Filme auf dem Markt entweder ohnehin Upscale-Mogelpackungen sind, oder ältere Filme generell mehr durch ultrawinzigen Filmgrain bestechen als durch echte, sichtbare, ultrahohe Bildqualität.

Für mich ist der erwartete Wow-Effekt leider ausgeblieben. Nicht, dass es ein Fehlkauf gewesen wäre, aber ein wenig mehr erwartet habe ich dann doch. Man könnte nun, wie gesagt, betonen, dass 28 Zoll keine geeignete Grundlage sind, um das richtig zu beurteilen, aber dafür sitze ich am Monitor eben auch sehr viel näher dran als am 50 Zoll Fernseher, den ich immer nur von der entfernten Couch im Blick habe. Im Prinzip sollte sich das also irgendwo ausgleichen. Aber es bleibt mir in jedem Fall ein Monitor mit einer gigantischen Desktopfläche, die ich mit Fenstern zuklatschen kann. Jetzt habe ich sogar soviel davon, dass ich die Hälfte davon als Werbefläche vermieten könnte. Oh Moment, das machen Webseiten ja schon lange so.

Es könnte alles so einfach sein, würde Microsoft sich nicht entschließen, es unnötig kompliziert zu machen. Es mag Ideen geben, die für die Entwickler auf dem Papier Sinn ergeben, sich in der Praxis aber als ziemliche Scheiße entpuppen. Seit ich mir privat einen zweiten Monitor zugelegt habe, bin ich mein 27-Zoll + 24-Zoll Monitor-Setup gewohnt, und auch beruflich im Büro sind zwei Monitore längst Standard. Die diversen Fenster, die ich normalerweise permanent geöffnet habe, also etwa der Browser, die Softwareentwicklungsumgebung, den E-Mail-Client, den MP3-Player, Bildbearbeitungssoftware, Instant Messenger, Texteditor (und oft noch einige mehr), verteile ich nach meinem ganz eigenen System auf die beiden Monitore. Ich weiß genau wo ich was finde, und was ich möglichst immer gleichzeitig links und rechts sehen will.

multimonitor

Wenn ich mal für ein paar Stunden nicht am Rechner bin, die Kiste aber weiterlaufen soll, schalte ich die Monitore gerne aus. Das hat in der Vergangenheit teilweise funktioniert. Jedenfalls hat es das mit dem zweiten (DVI-)Monitor. Wenn ich den primären – via DisplayPort angeschlossenen – Monitor ausschalte, dann erkennt Windows 7 das Gerät genialerweise als nicht mehr angeschlossen und verschiebt alle meine offenen Fenster ungefragt auf den zweiten Bildschirm. Ich war jedes Mal äußerst dankbar dafür, dass ich meine Fenster alle wieder von Hand umsortieren durfte. Umgekehrt war das bislang kein Thema, weil Windows das Ausschalten über DVI offenbar nicht bemerkt hat. In der Folge durfte ich also nur noch den sekundären Monitor ausschalten, der Primäre musste eingeschaltet bleiben, weil sonst meine Fenster irgendwohin wanderten.

Die Notlösung war der Windows-Energiesparplan, mit dem ich die Monitore nach einer gewissen Zeit softwareseitig abschalten konnte, beide Monitore aber weiterhin als angeschlossen galten. Das hat lange Zeit ganz gut funktioniert. Bis zu einem der letzten Windows 7-Updates oder möglicherweise auch dem letzten Grafikkarten-Treiberupdate, so ganz sicher bin ich mir da nicht mehr. Ich war überrascht, dass fortan auch der DVI-Monitor beim Ausschalten den Windows-Systemton auslöst, den man üblicherweise dann hört, wenn ein Gerät abgestöpselt wird. Beim sofortigen Wiedereinschalten war der zweite Desktop natürlich leer.

Schlimmer war allerdings, dass Windows neuerdings beide Monitore vom System trennt, wenn sie durch den Energiesparplan ausgeschaltet werden. Nach zehn Minuten Inaktivität wurden beide Monitore dunkel und man konnte nun immer jeweils zweimal den Gerät-Entfernt-Systemton hören. Windows trennt intern die beiden Monitore, verschiebt alle Fenster kurzerhand ins Nirvana, und schmeißt sie dann bei erneuter Benutzeraktivität auf den erstbesten Monitor, der zuerst wieder aus dem Tiefschlaf erwacht – begleitet von dem zweimaligen Gerät-Angeschlossen-Systemton. Windows interessiert es nicht, wo die Fenster ursprünglich waren, es wird immer alles auf einen Haufen geworfen. Das ist so dermaßen ätzend, dass ich meine Begeisterung kaum im Zaum halten kann.

Ausschalten ist also nicht mehr drin, wenn ich nicht zufällig Spaß daran habe, mehrmals täglich sämtliche Fenster von neuem zu sortieren. Auch der Energiesparplan fällt so für mich weg. Was bleibt ist einzig der Windows-Bildschirmschoner, wenn ich will, dass die Monitore (halbwegs) dunkel bleiben. Dann werden sie wenigstens nicht sofort sinnlos vom Gerätetreiber ausgehängt, sondern bleiben aktiv. Zu gerne würde ich die automatische Erkennung, ob der Monitor ein- oder ausgeschaltet ist, einfach per Häkchen deaktivieren, doch so einfach macht es uns Microsoft nicht. Diese Erkennung lässt sich natürlich gar nicht abschalten. Meine Recherche hat ergeben, dass dieses „Feature“ aus Sicht von Microsoft richtig und beabsichtigt ist. Also eine wieder einmal an vielen Nutzern vorbeientwickelte Funktion.

Es gibt einen Workaround für den Fall, dass man bereit ist, seine Monitore über HDMI anzuschließen und am Stecker den Pin Nummer 19 abzukleben, der für diese automatische Erkennung nötig ist. Bei DisplayPort-Steckern gibt es einen solchen Pin ebenfalls, ist aber zu klein, um ihn einfach abzukleben. Und auch für Titan-Grafikkarten von Nvidia scheint es einen Workaround zu geben, der mir aber genausowenig hilft. Mit einer simplen Einstellung in den Optionen für die Bildschirmauflösung in der Art wie „Diesen Monitor beim Ausschalten nicht vom System trennen“ wäre das Problem für alle erledigt, doch so denkt Microsoft nicht. Ich bezweifle, dass jemand bei Microsoft hier überhaupt gedacht hat.

Hier einige Links zu dem leider schon recht lange bekannten Problem:

Ende vergangener Woche, es muss bereits am Freitag oder Samstag gewesen sein, da bildete ich mir ein, dass mein neuer PC unter dem Schreibtisch irgendwie ein bisschen anders klang als normalerweise. Es war nicht lauter oder spürbar höher, es war vielleicht nur eine geringfügig andere Tonlage, jedenfalls bei weitem nichts Alarmierendes. Ich dachte natürlich zuerst an einen der vielen Lüfter im Gehäuse, am Prozessor oder an der Grafikkarte. Allerdings hätte ich mich mit dem merkwürdigen Klang auch sehr leicht täuschen können, daher hakte ich das Thema ab. Der Rechner, der bei mir wie seit je her an freien Tagen im Dauerbetrieb läuft, machte auch keine Probleme, alles lief wie gewohnt angenehm und schnell.

Gestern zur Mittagszeit – also etwa vier Tage später – wollte ich nach längerer Pause mal wieder „Ori and the Blind Forest“ weiterspielen, an dem ich mir hin und wieder in masochistischen Phasen gepflegt die Zähne ausbeiße oder die Haare ausreiße. An sich absolut kein hardwarefressendes Spiel, auch bei schwindelerregenden Bildschirmauflösungen nicht. Als schon die kleinen einleitenden Videoclips stockten, machte mich das höchstens stutzig. Die darauf folgende Ladezeit für das Hauptmenü, die üblicherweise 2-3 Sekunden beträgt, war inzwischen auf 20-25 Sekunden angewachsen. Hier war ich schon sehr beunruhigt. Im Spiel selbst offenbarte sich das gesamte Ausmaß des Grauens: Meine Spielfigur bewegte sich dermaßen ruckelig über den Bildschirm, dass an Spielen überhaupt nicht mehr zu denken war. Selbst der Ton stotterte gequält vor sich hin.

Der reflexartige Windows-Neustart änderte leider überhaupt nichts. Okay, dann war vielleicht das Spiel irgendwie durch ein Windows- oder Geforce-Treiberupdate kaputtkonfiguriert worden. Wär doch möglich. Ein anderes Spiel war schnell gestartet, doch auch hier zeigten sich deutliche Performance-Probleme. Die Prozessorauslastung habe ich überprüft, sah jedoch nicht ungewöhnlich aus: Für meinen Geschmack vielleicht eine Spur zu hoch, aber noch lange nicht am Anschlag. Alles klar, die Grafikkarte ist das Problem, dachte ich. Das kleine Tool „GPU-Z“ wurde heruntergeladen und die gemessenen Werte abgelesen. Selbst im Spielbetrieb hat die Grafikkarte kaum was zu tun, auch die Temperatur ist normal.

Als nächstes verdächtigte ich die Windows-Updates, die ich ungefähr zur selben Zeit installierte, als das Problem aufgetreten sein muss. Das war die ideale Gelegenheit, mal wieder diese ominösen Wiederherstellungspunkte auszuprobieren, die das Betriebssystem fleißig vor jedem Updatevorgang anlegt. Ein Zeitpunkt von vor etwas weniger als zwei Wochen wurde ausgewählt, die Zeitreise initiiert, das System entsprechend zurückgesetzt. Nach dem Neustart startete ich mit Spannung eines der problematischen Spiele, doch nach wie vor ruckelte dieses entsetzlich. Einige weitere Versuche mit anderen Spielen zeigten Leistungseinbußen unterschiedlichen Grades, je nachdem wie alt das Spiel war. Wegen der extremen Ladezeiten verdächtigte ich jetzt auch die Festplatte und den Arbeitsspeicher. Die Paranoia griff um sich.

Ein im Umgang mit Hardware sehr viel versierterer Kumpel hatte schon früh ein mögliches Temperaturproblem angesprochen, doch dafür gab es so gut wie keine Anzeichen. Dennoch öffnete ich auf seinen Rat hin das Gehäuse, und fand einen einwandfrei laufenden Prozessorlüfter vor, der auch nicht etwa zugestaubt war. Kein Hitzestau im Gehäuse oder in der Nähe des Kühlers, also alles bestens. Eine insgesamt etwa zwanzigsekündige Internetsuche führte mich zu dem kleinen Tool „Core Temp“, das mir prompt eine (CPU-)Kerntemperatur von nur knapp unter 100°C bescheinigte. Wow, das wäre ja heftig. Wahrscheinlich ein Messfehler, mutmaßte ich. Das Problem mit dem „Offset“ bei den Temperatursensoren war mir schließlich schon lange bekannt. Auf die Anzeige war wohl kein Verlass. Ich sollte doch mal kurz am Kühler wackeln, wurde mir vorgeschlagen. Ungläubig folgte ich dieser Anweisung. Tatsächlich war der Kühler unerwartet wackelig.

Als die Temperatur schlagartig auf unter 40°C fiel, stellte ich erschrocken fest, dass ich den Rechner möglichst sofort ausschalten sollte. Offensichtlich lief mein Core i7 seit mindestens 96 Stunden mehr oder weniger ungekühlt bei fast 100°C ohne Last, was definitiv keine gesunde Betriebstemperatur ist. Es hatte den Anschein als hätten sich die vier Haltestifte gelöst, die den Kühler auf dem Prozessor fixieren sollten. Es grenzt an ein Wunder, dass er das alles schadlos überstanden hat. Tapfer und ohne Meckern hat er diese Tortur die ganze Zeit mitgemacht, und im Desktopbetrieb war tatsächlich keine Einschränkung zu bemerken. Erst bei den Spielen war es mir möglich, festzustellen, dass etwas nicht in Ordnung war.

Mich ärgert nur, dass es keinerlei Sicherheitsmechanismen gab, die gegriffen haben, und auch keine Warnungen. Wo ist die Notabschaltung hin, die schon vor 15 Jahren den Rechner zuverlässig abschaltete, wenn er zu heiß wurde? Wo ist die dynamische Lüftersteuerung, die mich schon vor 5 Jahren beinahe in den Wahnsinn trieb, wenn der Rechner im Sommer manchmal genauso klang wie ein Flugzeugtriebwerk? Eines dieser Anzeichen hätte gereicht, und ich hätte sofort gewusst, was zu tun ist. Wo bleiben denn die sonst so nervtötenden Balloon-Tooltips der Art „Es gibt ein Temperaturproblem“, wenn man sie mal ganz dringend bräuchte? Jeden Scheiß meldet Windows dem Benutzer, aber hier lässt es mich so lange im Unklaren, bis der 300 Euro teure Prozessor irgendwann sang- und klanglos abgeraucht wäre? Ich finde doch zu einem Betriebssystem gehört es auch, die Betriebstemperatur der „lebenswichtigsten“ Komponenten zu kennen.

Sehr verehrte Leser und Nichtleser, die Artikelarmut der vergangenen Tage möchte ich erneut entschuldigen, doch sie beruht dieses Mal nicht etwa auf Schreibfaulheit – nunja, doch auch – aber weitestgehend auf der Tatsache, dass ich mit viel wichtigeren Dingen beschäftigt war: Ich habe mein wunderbares Weihnachtsgeschenk für das Jahr 2014 an mich selbst bestellt, ausgepackt, zusammengeschraubt, verkabelt, aufgestellt und mühsam eingerichtet. Die Rede ist von meinem leistungsfähigen Arbeitsgerät, meinem inzwischen fünften Desktop-PC, der jetzt mein kleines Homeoffice schmückt. Mit stundenlangen terabytegroßen Backups und allem drum und dran war ich so tatsächlich einige Tage mit dem Thema befasst.

Beinahe sechs Jahre lang habe ich meinem tapferen Zweikerner die Treue gehalten, doch inzwischen war er altersschwach geworden, genügte den Ansprüchen leider nicht mehr. Ich bin stolz auf ihn, dass er in dieser Zeit trotz 24/7-Dauerbetriebs nie schlapp gemacht hat. Von Hardware-Defekten bleibe ich irritierenderweise meistens verschont, und wenn dann fallen nur unkritische Teile aus. Das machte es mir aber nur noch schwerer, die alte Kiste in den Ruhestand zu schicken, wo sie doch noch einwandfrei funktioniert hat. Der Rechner davor – übrigens von 2004 – wurde ebenfalls in Rente geschickt, obwohl er noch fleißig arbeitete. So musste ich mir also wieder irgendeinen Vorwand ausdenken, weswegen ein neuer PC dringend nötig wäre, wenn ich nicht noch weitere unzählige Jahre darauf warten wollte, bis der Prozessor den Staubtod stirbt.

homeoffice

Dieses Mal durfte es endlich eine Vierkern-CPU (4 x 3,6 GHz) sein, dazu 16 GB Arbeitsspeicher und einer GeForce GTX 970 mit 4 GB 3,5 GB Grafikspeicher. Als Massenspeicher dienen eine 500 GB SSD fürs Betriebssystem und die Programme, und eine weitere 6 TB HDD als Datengrab. Kaum zu glauben, dass es so große Festplatten schon wieder halbwegs bezahlbar gibt. Außerdem habe ich einen Blu-ray-Brenner eingebaut. Als Bonus gab es neue Peripherie, denn die alte sah auch schon sehr abgenutzt aus. Und der Höhepunkt ist ein neuer 27-Zoll-Monitor mit einer nativen Auflösung von 2560×1440. Als Zweitmonitor für den erweiterten Desktop bleibt mir der alte 24-Zöller erhalten, was mir als Fenster- und Icon-Messie sehr gut passt, denn jetzt habe ich wirklich viel Platz.

Die Aufrüstung war leider nicht ganz billig, so dass das Gerät mein bisher teuerster Rechner ist, und das obwohl ich bei so ziemlich allen Komponenten bei den Sparversionen geblieben bin. Für einen Aufpreis von 50 oder 100 Euro hätte es meine Grafikkarte in der übertakteten oder in der Extreme-Version gegeben, für weitere 50 Euro hätte es meine CPU mit größerem Takt und verbesserter Architektur gegeben, der Monitor ist ebenfalls einer der günstigsten mit dieser technischen Ausstattung. Auch bei den SSDs gibt es nach oben keine Grenze, weshalb ich mich auch hier ziemlich genau an der unteren Grenze orientiert habe. Wie gesagt, ein teurer Spaß trotz allem, aber der Rechner wird wieder frühestens in 6 Jahren abgelöst, daher habe ich im Moment kein schlechtes Gewissen.

Wichtig ist mir beispielsweise, dass der Rechner die nächsten Jahre spieletauglich bleiben wird, und daran werden moderne Rechner ja schließlich oft gemessen. GTA5, Dragon Age Inquisition oder Alien Isolation – es gibt so einiges, das mein alter PC nicht mehr problemlos mitgemacht hätte. Auch wollte ich definitiv gerüstet sein, wenn es die Oculus Rift (oder gerne auch ein vergleichbares Konkurrenzprodukt) in einer Consumer-Version geben wird, dass ich dann nicht auch noch um die benötigte Mindestleistung der Grafikkarte zittern muss. Das Ding wird angeschlossen und hat gefälligst sofort ruckel- und latenzfrei zu laufen.

Beim Zusammenschrauben ist mir aufgefallen, dass ich nach all den Jahren ein wenig aus der Übung gekommen bin, aber positiv muss ich anmerken, dass man heute nicht mehr viel falsch machen kann. Mainboard ins Gehäuse schrauben, Prozessor und Kühler einsetzen, das ist alles kein Hexenwerk mehr. Fast jeder Handgriff wird in den Handbüchern beschrieben, so Dinge wie Jumper-Einstellungen sind heute ja zum Glück ausgestorben, auch muss man längst nicht mehr mit Kühlpaste rumschmieren. Es war nach dem ersten Einschalten doch wirklich erleichternd zu sehen, dass ich auf Anhieb alles richtig gemacht habe. Ein IKEA-Regal ist schwieriger zusammenzubauen als ein PC, und dauert zudem noch länger.

Jetzt kann ich Artikel für meine Webseite endlich noch flüssiger schreiben und E-Mails noch viel schneller lesen. Die Technik bleibt eben nicht stehen. Und BioShock Infinite hab ich jetzt endlich auch mal angespielt. Ich müsste nun mal schauen ob ich mit der neuen Hardware ein Video von SPACOLA Eclipse mit höherer Bildrate mitschneiden kann, denn bei 26 fps ist der alte Prozessor bislang eingeknickt, obwohl das Spiel in der doppelten Framerate läuft. Momentan ist der Unterschied zwischen Video und echtem Spiel wirklich nicht zu vernachlässigen.

Junge pickelgesichtige minecraft-zockende Gamer verstehen nur wenig von ihrem eigenen … nunja … „Fachgebiet“. Das musste ich jedenfalls vor kurzem feststellen. Was ich zuerst für einen traurigen Einzelfall hielt und ignorierte, begegnete mir in den letzten Wochen so häufig, dass ich die Angelegenheit genauer analysieren musste. Ich habe die Probe gemacht und einige Meinungen zu dem Thema eingeholt. Man berichtete mir von ähnlichen Beobachtungen, was meine These bestätigte. Es scheint fast so als würde es bei dieser neuen Generation von Gamern überall laggen – vor allen Dingen im Gehirn.

Junge razermaus-schwingende headset-tragende Gamer sind zu blöd zwischen ruckeliger Grafik und einem Lag zu unterscheiden. Aber wir uncoolen Oldschooler kennen den Unterschied zum Glück noch, und müssen die Begriffe daher nicht wie Opfer hilflos durcheinanderwerfen. Daher keine Sorge: Mit Hilfe meiner fettkrassen Lehrstunde werden diese armen Seelen vielleicht nicht dumm sterben müssen. Also zumindest nicht ganz so sehr wie zuvor.

Beginnen wir mit einer einfachen Definition der beiden Fachbegriffe. Da ist zunächst der (oder das) sogenannte Lag. Ein Lag entsteht durch einen Engpass bei der Datenübertragung in einem Netzwerk. Er zeigt sich etwa als zeitliche Verzögerung zwischen Aktion des Spielers auf der Tastatur und entsprechender Reaktion der Spielfigur auf dem Bildschirm eines Spieleclients. Wahlweise könnte er auch als Input-Lag gemeint sein, wenn beispielsweise die Mausbewegung spürbar nachzieht. Beides habe ich in diesem Zusammenhang kennengelernt. So ein Lag bewegt sich in einem Bereich von wenigen hundert Millisekunden bis mehreren Sekunden. Ein Lag lässt sich dadurch an einem hohen Ping messen.

Kennen junge Gamer übrigens auch nicht: Netzwerkkarte, BNC-Stecker und T-Stück

Ruckelnde Grafik entsteht vorwiegend wenn die Hardware, die für das Rendern des Bildes zuständig ist, die benötigten Grafikoperationen nicht ausreichend schnell durchführen kann, bis das Bild gezeichnet werden soll. Es entsteht ein zeitlicher Rückstand, der nur kompensiert werden kann, wenn darauf folgende Bilder übersprungen werden (Framedrop). Das Bild ruckelt oder „stottert“. Die Bewegungen sind nicht flüssig, sondern abgehackt, wie ein Daumenkino. Manche sprechen im Extremfall auch von „Diashow“. Der Effekt wird verstärkt oder abgeschwächt, je nachdem wieviele Objekte auf dem Bild gerade zu sehen sind. Ruckelnde Grafik äußert sich in einer niedrigen Framerate, also alles zwischen 0 fps und 25 fps.

Bei einem Lag ist die entscheidende Komponente das Netzwerk und die Netzwerkhardware, etwa wenn im Hintergrund zuviele Downloads/Uploads laufen, und die restliche Bandbreite nicht mehr für die Datenübertragung im Spiel ausreicht. Dagegen ist es bei ruckelnder Grafik die CPU oder die Grafikkarte, beispielsweise weil die Auflösung zu hoch eingestellt ist und so die Kapazität der Hardware übersteigt.

Wir merken uns: Lag – hoher Ping. Ruckelnde Grafik – niedrige FPS. Lag – Spielfiguren reagieren verzögert auf Eingaben oder teleportieren plötzlich wie Zauberer in der Spielwelt herum. Ruckelnde Grafik – Diashow-Effekt, Animation der Spielgrafik ist abgehackt und nicht flüssig.

Wir folgern daraus: „Lag“ ist der falsche Begriff für das was diese Konsumenten DRM-verseuchter Spielekost meinen. Eigentlich meinen sie etwas, das man als „Ruckeln/Ruckler“, „Framedrop“, „low FPS“ oder „scheiß Framerate“ bezeichnen könnte. Es gibt sicher noch bessere Begriffe. Man denke nur mal an die Probleme mit den „Mikrorucklern“ bei einer SLI/Crossfire-Konfiguration von Grafikkarten, die man vor einigen Jahren noch von NVidia und ATI kannte. Niemand wäre auf die Idee gekommen, das Problem „Mikrolag“ zu nennen. Es sind eben keine Lags. Ein Lag ist was anderes.

Das Spiel ruckelt und der unaufgeklärte Gamer flucht: „Wieso laggt das denn so?“. Solche Szenen gehören mit diesem großartigen Artikel hoffentlich bald der Vergangenheit an. Ich bin zuversichtlich, die Welt damit ein bisschen besser und ein bisschen schlauer gemacht zu haben. In der nächsten Folge erkläre ich dann, warum HTML keine Programmiersprache ist. Achja: Dieser Artikel kann Spuren von Satire und Islamkritik enthalten!