EGroupware und SyncML im Einsatz

Wer ein mobiles Gerät mit Android seit eigen nennt, wird schnell feststellen, dass nur zwei sinnvolle Sync-Optionen vorgesehen sind: Google(Mail/Konto) und Exchange. Wer wie ich ersteres nicht hat und auch nicht will und für letzteres kein Sinn sieht (OpenXchange ist die OpenSource Alternative) der muss etwas suchen um seine Kalender, Kontakte und ToDo-List zu synchronisieren.

Seit einiger Zeit kristallisiert sich SyncML  als „Transportstandart“ für genau diese Aufgabe heraus. Der Vorteil dieses offenen Standards liegt auf der Hand. Es gibt verschiedene Backends und Frontends, die alle in unterschiedlicher Kombination miteinander Synchronisieren können. Dieser Artikel geht auf beides ein.

Mein Setup sieht wie folgt aus:

  • mehrere Thunderbird Endgeräte – mobil wie stationär
  • mehrere mobile Endgeräte mit verschieden OS Typen (Symbian, Android, usw)
  • Outlook/Exchange (Arbeitsrechner)
  • Ubuntu-Server als zentrale Datenhalde.

Das Frontend

Recht schnell bin ich auf Funambol gestoßen. Diese Firma bietet Sync-Tools für alle möglichen Plattformen, einen SyncML-Server und einen CloudService. Funambol betreibt dabei das typische OpenSource – Geschäfftsmodel. Code und Tools kostenlos, den Service und einige Features gibt’s gegen Bares. Aber das stört nicht. Zum einen gibt es den FunambolServer (SyncML) als installpacket zum anderen kann man auch auf andere SyncML-Angbote zurückgreifen. Das Backend ist frei konfigurierbar. Mein Fazit nach zwei Wochen mit Funambol im Test:

  • Thunderbird: Erst einmal muss man das Plugin finden. Dazu muss man sich das Plugin entweder selber bauen oder unter www.memotoo.com ein vorkompiliertes Paket herunter laden. Einmal installiert funktioniert alles wie man es sich vorstellt. Adressbücher, Kalender und Task werden ordnungsgemäß synchronisiert.
  • Android: Auch hier gibt es eine Funambol-Applikation kostenlos im markten. Einmal installiert, legt es ein neues „Synchronisations-Konto“ an. Es existiert neben Exchange und Google-Mail dann noch eine weite SyncQuelle, die sich schön in die Android-Oberfläche einbindet. Aufbau der Applikation und Funktonumfang entspricht den Standart Funambol Desktop-Client mit einer Ausnahme: auf dem Android gibt es (noch) keine Task. Es gibt noch keine Task-App die mit Funambol koppelt – leider.
  • Outlook: hier gibt es ein offizielles Plugin das ebenfalls einwandfrei funktioniert.

Eine Einschränkung gibt es jedoch: Funambol scheint beim syncen „marker“ in die jeweiligen Kalendereinträge zu machen (id). Wird der Kalender aber nicht lokal gespeichert sondern ebenfalls synchronisiert oder gar über Netzwerk eingebunden (Exchange/ICS/CalDav) gehen diese Informationen verloren. Der Client ist scheinbar nicht mehr in der Lage, Einträge die vom Server kommen zuzuordnen, mit der unschönen Folge das Dubletten entstehen. Bei meinem Outlook muss ich auf eine veraltete Funambol Version (8.72) setzten, weile nur noch diese den „One-Way“ Modus unterstützt. Dabei überträgt der Client (wahlweise) nur Zum Server oder Empfängt nur vom Server.

Das Backend

Funambol bietet auch einen SyncML Server.  Bei diesem handelt es sich um ein Java – basierten Server samt Konfiguration. Im ersten Überblick wirkte das alles ein wenig „unübersichtlich“ und wenig strukturiert aus. Ich muss aber gestehen das ich mir den Server nur ganze 2 Stunden angeschaut habe. Nebenher hatte ich mir noch ein EGroupware Server aufgesetzt und direkt verglichen. Diesen Vergleich hat der Funambol-Server aus folgenden Gründen verloren:

  • Funambol setzt eine eigene Server-Struktur auf. Dieser Server braucht einen Port den ich durch meine FW Routen muss und so weiter. Auf meinen Server läuft aber schon ein Apache. Egroupware nutzt diesen, so fällt der Mehraufwand weg.
  • Funambol setzt sein eigenes DB-Backend ein. Die wollen gesichert werden. EGroupware kann alle DB-Backends ansprechen, die PHP beherrscht. Standardmäßig komm MySQL zum Einsatz.
  • Und mein Totschlag-Argument: Funambol kann man (noch) nicht aus einer apt-Quelle installieren. Man muss sich also selber kümmern ob und wie man das ganze aktuell hält. EGroupware gibt es als Paket aus den offiziellen quellen.

Bei Egroupware handelt es sich ebenfalls um eine OpenSource-Projekt mit kommerziellen Grundgerüst. Die Community-Edition gibt es kostenlos, den Service muss man kaufen. Man kann das Paket direkt aus den offiziellen Quellen beziehen (die sind veraltet) oder man greift auf Quellen des Herstellers zurück. Dieser bietet für fast alle Debian/Ubuntu-Verianten die quellen an.

Standardmäßig wird EGroupware so installiert das es ein Anwendung unter „http://localhost/egroupware“ gibt. Das kann man wie gewohnt über die Apache-configs umbiegen und anpassen. Die geführte Installation in der Webanwendung gestaltet sich ein wenig hackelig. Das ist bedingt durch den Umstand, dass EGroupware für große Mittelständler gedacht ist. Es unterstützt Domänenkonzepte, Mailserver, verschiedenste Authentifizierungen usw Für den Zweck der einfachen „Ein Mann Synchronisierung“ ein wenig oversized aber es gibt schlimmeres.

Einmal installiert und eingerichtet zeigt sich EGroupware sehr aufgeräumt und übersichtlich. Besonders hervor gestochen haben folgende Funktionen:

  • Es gitb unterschiedlichste Sync-Schnittstellen für ein und das selbe. Zum Beispiel kann der Kalender unter ./calendar oder calendar angesprochen werden. Jede dieser Schnittstellen kann man ein eigenes Konflikt-Management vorgeben.
  • Es wird die WebDav – Schnittstelle angeboten. Hat man Festrechner, die immer mit dem Server verbunden sind, kann man die Kalender bequem mittels WebDav einbinden. Insofern die Kalender der „Kollegen“ freigegeben sind kann man sogar die einbinden. Der Link sieht dann so aus: https://egroupware/groupdav.php/<username>/calendar
  • Legt man einen Eintrag im Kalender an und hinterlegt dabei einen Gesprächspartner (E-Mail) gleicht Egroupware automatisch mit der internen Kontakt-Liste ab und macht entsprechende Einträge bzw. versendet E-Mails
  • Sowohl IMAP als auch POP Server werden unterstützt, auch SMTP wird angeboten – Es muss aber kein Mail-Server angegeben werden!
  • Das WebEnd-ist ansprechend und übersichtlich.

Fazit

Seit zwei Wochen synchronisiere ich erfolgreich zwischen allen meinen Geräten. Von der kleinen Outlook-Einschränkung mal abgesehen funktioniert das Problemlos. Besonders das Feature, dass meine Freundin jederzeit sehen kann, wie meine geschäftlichen Termine liegen bzw. mir von zu Hause Termine „rein knallen“ kann, erleichtert mir ein wenig das leben. Der Verwaltungsaufwand hält sich in Grenzen, da fast alles aus den Mail-Clients her raus gelöst werden kann. Eine klare Empfehlung an alle die ihre Kontaktdaten,Kalender und Aufgaben lieber nicht in der Cloud speichern wollen aber dennoch auf den SyncService nicht verzichten wollen.

Weitere Links:

Samsung Galaxy Tab 10.1

Es ist soweit! Ich kann endlich in die Fußstapfen meines großen Vorbildes stolpern! Beziehungsweise in dessen Sessel setzen. Eine Tasse EarlGrey, eine freundliche bestimme Mine aufgesetzt, alles was fehlt ist der Schreibtisch mit integrierten Computer, ein Datenpad in der Hand und natürlich ein veritables Raumschiff der Sternenflotte unter meinem Kommando…

Realitätscheck:

  • Die Sternenflotte ist noch nicht gegründet
  • Die „Raumschiffe“ der  Menschheit kann man wohlwollend höchstens als Nussschalen bezeichnen.
  • Ein Kommando werde ich über selbiges weder bekommen noch anstreben…
  • Den Schreibtisch gibt es, aber er ist unbezahlbar und aus Ermangelung der vorgehenden Punkte unpraktisch!

Bleibt das mit den Fingern zu bedienende Datenpad! Das ist Praktisch, bezahlbar und überhaupt irgendwie hipp.
Als das erste IPad von Apple raus kam dachte ich mir: „WOW – Sowas wollte ich schon immer haben, gibt das von wem anderen außer Apple“. Nicht für ungut, aber auf meinen Geräten bin ich ROOT/BastardOperator(directly)FromHell… Meine Wünsche wurden erhört. Mittlerweile gibt es mehrere namenhafte Hersteller die sogenannte Tabletts anbieten, mit und ohne Windows. Meine Wahl viel auf das Samsung Galaxy Tab. Die erste Version (7Zoll) war schon ganz gut aber mir zu sehr Telefon denn Tablett. Also wartete ich auf das 10.1. Diese ist nun bei mir eingetroffen und ich konnte die letzte Woche damit „rumspielen“. Das hier wird kein üblicher „Unboxing“-Artikel. Sondern mehr ein „wie bekommt man und wie kann man es nutzen“-Beitrag.

Also was bekommt man und vor allem wo. Das Galaxy Tab 10.1v wird aktuell nur von Vodafone angeboten. Es ist die pre-IPad2 Variante also etwas dicker und schwerer als das eigentliche 10.1 das in ein paar Monaten bei O2 an den Start geht. Aber ganz ehrlich, bei den Werten handelt es ich nur um Marketing-Getöse. Die paar Gramm/Milimeter merkt man sicherlich nicht, und wenn doch muss man auf O2 warten.

Vodafone liefert das Gerät ohne Branding und SIM-Lock aus. Es ist nur ein natives Android am Start und 3 zusätzliche Anwendung (das heißt jetzt ja App) :

  • Ein RSS-Reader (optimiert auf Bilder)
  • eine OfficeApp
  • eine NetzProvider-Nachrichten-Dienst.

Mir ist nicht klar ob die von Samsung oder Vodafone kommen. Das Gerät selber kommt sehr spartanisch daher, wer sich die Daten genau anschauen will, sollte hier schauen. Samsung verlässt sich sehr stark auf das Display und Tab-Feeling, meiner Meinung nach zu recht, dazu später mehr.

Einmal eingeschaltet geht es auch schon los. SIM-PIN eingeben und Google-Konto angeben. Erste entwarnung, das GoogleKonto kann man ablehnen und das Tablet komplett ohne Google-Funktionen nutzen. Macht zwar wenig Sinn, geht aber. Danach ist das gerät betriebsbereit. WLAN eingerichtet oder 3G genutzt und loslegen mit surfen. Oder wie in meinem Fall erstmal Fluchen. Wer, wie ich, auf zufallsgenerierte Passwörter setzt hat ein kleines Problem. Android Honeycomb bietet (noch) keinen nativen FileBrowser und auch keine Unterstützung für SMB/CIFS oder NFS. Man kann nur über den Browser eine HTTP oder FTP Addresse ansurfen. Das ist dahingehend blöd, da man zum anmelden im Market ein Password braucht (zufallsgeneriert > 30 Zeichen, ich hab es nicht hin bekommen es ordentlich einzugeben …), ohne Market keine Apps zum download/öffnen der Password-Datenbank, ohne Password kein Market. Ende vom Lied: ich hab das Marketpassword kurzeitig auf 8 stellen und einfache Zeichen gestutzt, 3 Apps installiert (KeepassDroid, SMB Browser, FileBrowser) und anschließend die Copy/Paste Funktion genossen (funktioniert echt gut, von und in jedes Textfeld). Danach hatte es sich auch schon mit dem Integrieren in das eigene Netz, der Spaß (die App-Suche) kann losgehen.

Android Honeycomb  integriert sich nämlich gar nicht in das eigene Netz. Benutzerverwaltung, Shares, Homedirs etc… entfällt alles. Das OS ist voll auf „Massennutzer“ (auch Dummuser) ausgelegt. Es gibt kaum Konfigurationsmöglichkeiten. Das ist sowohl Positiv als auch Negativ. Beispiel: Ich möchte das der Bildschirm im Netzbetrieb immer an bleibt, sobald der Akku läuft sollen der Bildschirm nach 5 Min abgeschaltet werden.  Bei den Optionen für den Standby kann man jedoch nur einen Gesamtstatus einrichten. Entweder schaltet sich der Bildschirm nie aus oder eben nach 5 Minuten. Es gibt eine Schnittstelle zur „Fernwartung“ die ist bei mir jedoch nicht zuschaltbar. Allgemein ist Honeycomb ohne „JailBreak“ kein wirkliches Eldorado für Frickler wie mich.

Auf der anderen Seite, will man das? Das Tab ist ein „anywhere“ Gerät wie MP3 Player, Cam oder Handy. Das soll funktionieren und das tut es. Binnen wenigen Minuten hat man die ersten Apps nachinstalliert die man so braucht: ein besseres Mailprogramm, einen Notizblock, Opera als MiniBrowser (finde ich besser als Chrome). Auch gibt es für alle Apps einen Autoupdater, das hat Microsoft bis heute nicht auf die Reihe bekommen (Der Seitenhieb musste sein). Die Bedienung geht flüssig von der Hand, das Lesen länger Texte stresst nicht so wie auf einem Handy und das AutoRotate des Bildschirms macht das 10Zoll Format zum idealen „Zeitungsersatz“. Daneben bietet Honeycomb 5 Homescreens die man frei konfigurieren kann. Dazu eine Übersicht über alle startbaren Apps. Kurz und knapp die Bedienung ist so wie man es erwartet. Im direkten Vergleich mit dem Bedienkonzept von Windows Phone 7 vielleicht nicht so revolutionär aber gut bedienbar.

Wofür kann man das (ein) Tablett nun gebrauchen. Das wird am besten deutlich, wenn ich meinen N220 (Samsung 10Zoll Netbook) und meinen Desktoprechner gegen das Tablett antreten lasse. Am schnellsten verfügbar ist das Tablett. Kein Wunder, es ist im standby und hat keine Userverwaltung. Beim N220 braucht es aus dem Standby ähnlich „lange“ aber halt mit Useranmeldung. Außerdem schick ich den selten in den standby… Außen vor ist der Desktoprechner: Mit Dualboot und all den Services/Servern die darauf laufen ist die Bootzeit weit über 40 Sek. Folglich nutze ich das Tablett für alles, wo ich „mal ebend“ nach schauen möchte. Außerdem lassen sich Texte wesentlich besser auf dem Tablett lesen. Beim N220 ist das Bildformat einfach blöd (Querformat), beim Desktop muss ich einfach den den Schreibtisch. Außerdem brauch ich die beiden Monitore meist für was anderes als für den PDF-Reader.
Beim schreiben selbiger Texte sieht es nun wieder ganz anders aus. So gut die Tablett Tastaturen auch sein mögen (wenn man welche nachinstalliert), eine gute Tastatur mit ordentlichen Anschlagswegen und Druckpunkt ist in der Haptik nicht zu schlagen. Kurz: dieser Text entstand auf den N220. Den Desktoprechner nutzte ich eigentlich nur noch, wenn ich viel „Arbeitsplatz“ (DualScreen) oder schlicht Rechenpower brauche. Das GalaxyTab kommt immer dann zum Einsatz wenn ich einfach nur was lesen/anzeigen lassen will.

Gibt es sonst noch was herausragendes/erwähnenswertes an dem Gerät oder Betriebssystem:

  • Wenn man aus der Linux oder Windowswelt kommt, fällt auf, wie gut die verschieden Apps sich in das Betriebssystem integrieren und miteinander interagieren.
  • Für ein OS das gerade auf den Markt geworfen wurde, wirkt Honeycomb sehr „fertig“. Das kenne ich aus anderen Betriebssystemen auch anders.
  • Es gibt kaum Filterkriterien bei den Apps nach „Bildschirmgröße“. Ob eine Anwendung mit den 10 Zoll (1280*800) umgehen kann, skaliert wird oder auf die kleine Handyauflöung fixiert ist, erfährt man sieht man erst nach dem Start der Anwendung.
  • Auch fällt negativ auf, dass es einige (auch native Honeycomb Apps) öfters mal auf die Bretter schickt/Abstürzt. Dann hat man recht wenig bis gar keine Debug- Möglichkeiten.
  • Das GalaxyTab stand heute kann keine SMS/MMS versenden/empfangen oder Telefonate aufmachen/annehmen. Hier streiten sich die Quellen ein wenig. Einige behaupten, dass das Tab kein Modul für diese Funktion hat andere darunter Vodafone weisen dieses Modul explizit aus (GPRS). Wobei die Beschreibung bei Vodafone eh nicht ganz stimmt. Sowohl Diktierfunktion als auch VoiceCommands gibt es (erstere durch eine app). Wohingegen die Synchronisation mit dem HeimPC eher hakelig ist (dazu mehr in einem anderen Beitrag)

Fazit nach einer Woche „Spielzeit“: das Tab macht Spaß. Ob das ganze über ein „neue Besen kehren gut“ raus geht muss sich zeigen. Auf jeden Fall zeigt es wo sich die Rechner hin entwickeln. Was auf jeden Fall Fakt ist, ich sitze nun jeden Morgen und Abend bei einer guten Tasse EarlGrey (oder Cappuccino) mit meinem „Datenpad“ in der Hand, lese die Zeitungen und denke darüber nach, wie es währe, das Kommando über ein Raumschiff der Sternenflotte zu haben und fremde Galaxien zu erobern (erforschen war noch nie mein Ding ;)). Dann holt mich die Realität ein und ich stell fest, dass diese Technikerhirnis nie auf die Idee gekommen sind, mit so einem Pad das ganze Schiff steuerbar zu machen. Haben die denn die was von RPC/SOAP-Calls gehört oder wie unglaublich cool es ist von jeder denkbaren stelle alles steuern zu können. Da sind wir heute ja schon weiter *G*

Was mich hingegen wirklich freut, das war mein erster Komplett-Rechner ohne Windows-Zwangs-Steuer

Wenn rdiff-backup mal streikt…

Rdiff-backup ist meine favorisierte Backuplösung. Sie hat einfach zu viele nette Feutures, allen vor ran der geringe Speicherplatzverbrauch plus der Datei-Historie. Leider hat rdiff-backup ein Problem mit seiner Stabilität.  Wenn es mal zu einem inkonsistenten Backup kommt. steht man ziemlich mit runter gelassenen Hosen da. Ich selbst leide an einem solchen Problem. Um zu ermitteln ob mit einem Backup alles in Ordnung ist muss man folgenden Befehl ausführen:

rdiff-backup --verify [BackupDir]

Liefert dieser Befehl keinen Output kann man es ruhig angehen lassen. Gibt es jedoch Meldungen wie diese hier, sollte man auf jeden Fall prüfen was mit dem Backup nicht stimmt.

Warning: Computed SHA1 digest of

doesn't match recorded digest of

Your backup repository may be corrupted!

Wenn man dem nicht traut kann man mittels folgenden Befehl einen kompletten vergleiche Quelle<>Backup anstoßen:

rdiff-backup --compare-file [SourceDir] [BackupDir]

Dieser Befehl liefert die Files, bei dehnen sich Quelle und Backup unterscheiden unabhängig davon ob sich laut Change-Time irgendwas an der Datei geändert haben sollte.
Zusätzlich gibt es noch:

rdiff-backup --compare-hash [SourceDir] [BackupDir]

Dieser macht das gleiche wie der vorherige Befehl, nur vergleicht er nur die gespeicherten Hashes mit den neu genierten der Qulle. Das hilft nichts, wenn sich die Dateien im Backup geändert haben (z.B. korruptes File-System).
Kurz wenn der „compare-file‘ Befehl sagt „alles ok“, dann kann man dem trauen. Er ist jedoch auch der aufwändigste. Jeh nach Datenmenge kann das 24 Stunden und mehr brauchen. Leider hat der Befehl auch noch einen anderen Hinkfuß. Für die Dauer der Prüfung darf die Quelle nicht geändert werden, da es sonst zu unnützen Flaschmeldungen kommt.

Hat man einmal eine Datei (oder mehrere) ermittelt die defekt im Backup gespeichert vorliegt muss man diese im Backup aktualisieren. Leider bietet rdiff-backup dafür keinen Mechanismus. So das man händisch bei allen dateien  den „mdoified“-Zeitstempel auf einen Wert nach dem letzt Backup setzt muss. Also einfach ein touch auf alle Quelldateien bei den das Backup nicht in Ordnung ist, anschließend rdiff-backup nochmal laufen lassen.

AES-XTS-PLAIN – Retest die Zweite

Wenn man Ubuntu 11.04 installiert bekommt man den neuen 2.6.38 Kernel installiert, oder man installiert sich über das Ubuntu-Kernel-Team einen Backport. Was hat das nun mit der AES-XTS-PLAIN Verschlüsselung zu tun. Nunja mit dem 2.6.38 wurde die Mehrkernfähigkeit der Verschlüsseungsalgorithmen entscheidend verbessert.  Hier nun mein kleiner Nachtest:

  • Write Char: ? 1,11 MB/s (aktuell) statt 65,85MB/s (alt)
  • Read Char: 2,5 MB/s (aktuell) statt 29,46MB/s (alt)
  • Write Block: 165,08 MB/s (aktuell) statt 133,81MB/s (alt)
  • Rewrite: 51,91 MB/s (aktuell) statt 33,14MB/s (alt)
  • Read Block: 147,34 MB/s (aktuell) statt 57,13 MB/s (alt)

Fazit: Wie gehabt ist das schreiben zufällige einzelnen Chars extrem langsam. Was dem gut gefüllten Filesystem zugeschrieben werden kann. Was jedoch auffällt ist die enorme Leistungssteigerung in den restlichen Disziplinen. Es kann nun nahezu so schnell gelesen wie geschrieben werden. Was nahezu einer Verdopplung der Lesegeschwindigkeit gleich kommt. Auch die Schreibgeschwindigkeit konnte gesteigert werden, wobei der nicht so hohe Steigerungen zu erreichen sind. Die Leistungssteigerung wird natürlich durch eine höhere Auslastung der CPU erkauft. In meinem Fall werden nun beide CPUs in Beschlag genommen. Das System blieb aber während des Test gut ansprechbar und reagierte ohne Probleme auf eingaben. Also ein reiner Zugewinn an Geschwindigkeit.

Spielen unter Ubuntu

In meinem letzten Beitrag habe ich über sie Einsetzbarkeit von Linux als Systemplattform schwadroniert. Dabei ging ich auch auf das Einsatzfeld des Desktops ein. Das Fazit war, das es noch immer „abenteuerlich“ ist, ein „normales“ Spiel unter Linux zum laufen zu bekommen. Hier mal etwas mehr Details zum Thema Zocken unter Linux (am Beispiel Ubuntu)

Da es bei diesem Thema nur so von Problemen, Schwierigkeiten und Stolpersteinen wimmelt, geh ich sie einfach der Reihe nach durch, so wie sie mir Wiederfahren sind und gehe dann auf die Lösungsansätze ein.

Grafikkarten

Dies ist ein mehr oder minder leidiges Thema. Wer es gewohnt ist, mit der aktuellen Grafikkarte zu spielen, die eben erst auf den Markt geworfen wurde, wird nicht viel spielen. Obwohl sowohl NVidia als auch AMD Linuxtreiber zur Verfügung stellen dauert es immer ein wenig bis das Top-Model auch von diesen Treiber unterstützt werden. Aber selbst dann ist der Funktionsumfang und die Einstellmöglichkeiten der Treiber weit hinter dem, was die Windowstreiber bieten. Es gibt zwar auch OpenSource Treiber für beide Grafik-Hersteller, diese haben meist jedoch eine noch hoher Verzögerung was den Support anbelangt und können kaum im 3D Bereich mithalten ((??? zu klären). Fürs spielen ist mal also auf die ClosedSource Treiber angewiesen, wenn die nicht gehen, hat man Pech gehabt.

Verfügbarkeit:

Hat man eine funktionierende 3D Umgebung OpenGL kommt das zweite große Problem: läuft das Spiel überhaupt? Das Feld für die möglichen Antworten teilt sich theoretisch in folgende Quellen auf:

  • Das Spiel liegt compilierbar vor und ist Multiplatformfähig – hier hat man den wenigstens Stress. Selbst wenn es kein Pakete für die eigene Distribution gibt, kann man das Spiel zum laufen bekommen.
  • Das Spiel liegt als Binary für Linux nativ vor – hier hängt es von der Architektur und den vorliegenden Rahmenbedienungen (verwendete libc) ab ob das Spiel läuft.
  • Spiele auf Java/Mono/Flash-Basis – Spiel einfach starten.
  • Spiele die nativ nur unter Wundows laufen – wine installieren und ausprobieren was geht.

Punkt 1-3 bekommen erst in den letzten Monaten Relevanz. Durch das Aufkommen der verschiedener Plattformen (iOS, Android) und einem wachsendem Indi Markt, rückt der Gedankte der nativen MultiPlatformfähigkeit von Spielen mehr in den Mittelpunkt. Das nützt nur alles nichts, alle aktuellen Bestseller sind Windows Spiele oder laufen gar nicht erst auf dem PC.

Wine

Und hier beginnt das Basteln. Als erste Anlaufstelle sollte app.winehq.com sein um zu schauen ob es eine Realistische Chance gibt, dass man das gewünschte Spiel/Anwendung überhaupt zum laufen bekommt. Idealerweise vor dem Kauf machen. Wenn das Wunschspiel dort nicht gelistet ist, kann man sich auf Schwierigkeiten einstellen.

Wine sollte man über das WineUbuntu-Team aus dem Launchpad (https://launchpad.net/~ubuntu-wine/+archive/ppa) installieren, da dies eine der wenigen Applikationen ist, wo man hinter der Entwicklerversion hinterherhecheln darf/muss.

Nach der Installation einmal wincfg im Terminal aufrufen und ggf. zusätzliche Verzeichnisse einbinden.

Wichtiger Hinweis: wine legt das DosDrive C: standardmäßig ins Homeverzeichniss. Wenn man selbiges nicht Sprengen will sollte man den symbolischen Link einfach umbiegen:

cd ~/.wine/dosdevices
mv c: /some/user/defined/path
ln -s /some/user/defined/path c:

Hat man das gemacht kann es losgehen. Spiel installieren, starten, zocken und Spaß haben… theoretisch. Im Problemfall gibt es wenig allgemeine Hilfe. Da wine die Functions-Calls der Anwendungen „umbiegt“ kann alles an Fehler passieren was man sich so vorstellen kann. Auch Dinge die eigentlich nicht möglich sind… 😉

Hier ein paar Lösungsansätze:

  • Die CD wird beim installieren nicht erkannt/ Installieren geht gar nicht: Versuchen aus einer VM heraus das Spiel zu installieren. Anschließen das Verzeichnis raus kopieren und versuchen die Sache so ans fliegen zu bekommen.
  • Der Kopierschutz erkennt die CD nicht/ Kopierschutz verweigert dienst: kurz und knapp – Pech gehabt. Fast alle Kopierschütze haben ein Probleme mit der Fake-Windows-Umgebung. Da hilft nur ein „patch“ aus hebelt
  • Das Spiel startet nicht, stürtzt ab, verhält sich komisch: starte das spiel von der Konsole aus. Wine logt fast alles mit, was schief geht. Schmiert das Spiel ab und es Tauchen „FixMe – ToBe Implemented“ Meldungen auf, ist der Fall klar, da ist eine Funktion noch nicht implementiert. Meist sind die Fehlermeldungen aber kryptischer. Dann kann man google bemühen oder seinen Fall bei winehq posten. Je beliebter das Spiel ist, je schneller wird sich Support einstellen.

Hat man das Spiel erst mal am Laufen und will es sich „bequem“ machen, wird es erst richtig spaßig. Der Markt da draußen ist voll von programmierbaren Zusatztastaturen, Mäusen mit X-Tasten und allerlei Sonderhardware (HOTAS-Sticks usw). Zuerst die gute Nachricht: Fast alle davon werden erkannt und angesteuert. Ob nun mein alter HOTAS Cougar, PCDash oder Tacticalboard. Nun die Schlechte: das nutzt wenig. Meist wird das ganze „programmieren“ unter Windows über den Treiber abgefackelt. Unter Linux werden die Tastencodes ganz normal ausgewertet. Mir ist noch kein praktikabler Weg bekannt, bei dem Tastencode X von Tastatur A etwas anderes macht als von Tastencode X von Tastatur B.

Bei den Mäusen sieht es da schon besser aus. Wenn der XServer prinzipiell die Tastencodes erkennt und weiterreicht, gibt es das Tool btnx um diese Tastencodes in sinnvolle Aktionen umzusetzen. Das funktioniert sehr gut. Bei keinen meiner Logitech-Mäuse musste ich auf eine Tastenfunktion verzichten.

Wenn man solche Sachen wie TrackIR einsetzten will, kämpft man auf ganz verlorenen Posten.

Fazit

So genug gesalbert, hier mein Fazit nach 2 Jahren Linux Einsatz und dem Versuch darunter zu Spielen:

  • Für Spieler die nur mit Maus und Tastatur spielen, lebensfähig sind und auf ein paar Spiele verzichten können, kann ich Linux uneingeschränkt empfehlen.
  • Spieler die eh nur ab zu zu ein paar „simple“ Spielchen spielen wollen, ebenfalls. Flash geht immer 😉
  • Ambitionierte Spieler die entweder fast jedes aktuelle Spiel mitnehmen oder diverse Sonderanforderungen haben, werden ihre liebe Not bekommen. Hier ist ein parallel betriebenes (Gamer)Windows die bessere Wahl.

Ich selbst habe eine „Erfolgsrate“ von 75% vorzuweisen. Nach dem Wechsel auf Linux hab ich meinen Spiele-Konsum ohnehin stark eingeschränkt, daher ist die Rate so hoch. Von 4 Spielen war eins gar nicht zum laufen zu bekommen (ausgerechnet eins, dass eigentlich auf OpenGL setzt):

  • Ein altes Spiel (JaggedAllience2 Wildfire) war mit kniffen zum laufen zu bekommen, seit dem läuft es anstandslos.
  • WoW wird dank „Relevanz“ extrem gut unterstützt. Hier war gar kein Gefrickel notwendig. Leider war das dazu gehörige Tacticalboard nicht sinnvoll zum laufen zu bekommen. Außerdem ist WoW verdammt langweilig geworden.
  • Combat Mission – das besagte OpenGL Spiel… bekomme ich stand heute nicht zum laufen.
  • Eve Online – läuft mit einigen Kniffen sogar im vollen DualScreen – Modus

Bei allen 3D Spielen kann ich alle Shader (sofern vorhanden) aufdrehen und alle GrafikSettings auf Anschlag stellen, die Performance ist ordentlich. Bis auf kleine Bugs gibt es nur ein Manko: ich kann kein AA zuschalten.

Vollständige Migration zu Linux

Seit nun mehr zwei Jahren betreibe ich in meinem privaten Umfeld das Projekt „nie wieder Windows“. Angefangen hat es mit dem hochziehen eines lokalen Servers als NAS, griff über auf einen HTPC und endete nun schlussendlich mit der Migration meiner Desktop-Rechner. Da ich ein recht „vielfältiges“ Aufkommen von Rechnern und Anforderungen habe, will ich mal meine Erfahrung für die niederschreiben, die ebenfalls mit dem Gedanken spielen umzusteigen.

Zu aller erst der Grund meines Wechsels. Mit dem Wechsel von XP zu Vista hat MS mal wieder die Daumenschraube an zusetzten versucht, ala „Technology XYZ“ gibt es aber nur für Vista, den alten Scheiß braucht ihr nun nicht mehr. Der Versuch auf Vista zu migrieren war eine komplette Katastrophe. Anfangs gingen nicht mal meine Standard-Eingabegeräte korrekt. Unabhängig ob die Redmonder dafür etwas konnten oder nicht, ab diesem Moment war der Umstieg von WindowsVersion zu WindowsVersion genauso „kompliziert“ wie die Migration nach Linux. Zu diesem Zeitpunkt begannen die Test und Vorbereitungen wie ein Umstieg zu Linux denn „schmerzfrei“ von statten gehen könnte.

Zu meinen Rahmenbedienungen:

  • Ich lebe zu zweit in meinem Haushalt und meine bessere Hälfte ist nicht gewillt meine „Hirngespinste“ mitzutragen. Ergo eine Umstellung muss OHNE Reibungsverluste von statten gehen.
  • Ich bin ein Spieler im Sinne von „Computerspieler“. Es gibt Zeiten da will ich die Kiste einfach nur anmachen und anfangen zu zocken. Das alles ohne viel Stress und gefummel.
  • Ich bin aber auch ein Bastler. Es muss nicht immer gleich die Ideallösung sein. Es kann auch mal kompliziert werden. Programmieren, frickeln, Betatesten all das macht mir Spaß. Auch das durchforsten von Doku, Foren und einlesen in Komplexe Sachthemen ist mir nicht Fremd.
  • Ich bin Faul. Der Endausbau sollte mit minimalen Aufwand wartbar sein.

Es hat sich schnell gezeigt, mit Linux kann man gewissen Anforderungen nur Bedingt bedienen. Gleich vorweg, wer heute in den Laden geht und ein Handelsübliches PC-Spiel aus dem Regal greift, sollte eine funktionierende Windows-Installation sein eigenen nennen oder Leidensfähig sein. Andere Anforderungen lassen sich hingegen sehr gut, teilweise sogar besser als bei Windows abbilden.

Als Plattform hab ich Ubuntu gewählt. Es bot zum Zeitpunkt der Migration den besten Mix aus Aktualität (2 Releases pro Jahr), Support (Foren, Aktive Community), Zugänglichkeit (Doku) und Wartbarkeit. Begonnen hab ich mit 9.04 und setzt aktuell auf 10.04 LTS. Alle geschilderten Erfahrungen basieren auf dieser Basis.

Homeserver

Im Bereich des Serverbetriebs spielt Linux seine volle Stärke aus. Hier merkt man einfach, aus welcher Ecke Linux kommt. Das beginnt damit, dass man einen Server komplett Remote ohne GUI installieren kann, geht weiter über die Art der Konfiguration und endet damit, dass standardmäßig nicht jeder Dödel ohne weiteres den Rechner runter fahren kann. Genug der Seitenhiebe. Konkret manifestiert sich der Vorteil von Linux gegenüber Windows im Serverbetrieb in folgenden Fakten:

  • keine Lizenzkosten. Schonmal jemand ein Win2003/Win2008/SmallBuisinessServer gekauft…
  • keine Abstriche in Funktionalität: Hier ist Linux Windows eher überlegen. Alles was man für den Heimgebrauch so braucht, gibt es für Linux eher als für Windows und meistens auch noch frei verfügbar. Beispiele: Mailserver, Postfächer, LDAP-Server, Storage-Server, Webserver, Applikation-Server, Monitoring(!!!). Eine Ausnahme Bilden die DB-Server. Sowohl ein Oracle als auch ein MySQL laufen nativ unter Linux. Bei anderen DB-Systemen (MS SQL) sieht es da schlechter aus.
  • Hardware-Support: Alle nennenswerte ServerHardware kann von Linux angesprochen werden. Ob nun eine RAID-Controller oder eine abgefahrene ISP-Schnittstelle.
  • Integration: Jeh nach Distribution kann die Verfügbarkeit von Paketen zwar abweichen, aber es gibt fast immer einen Weg fremde Pakete einzubinden. Diese werden dann Automatisch mit aktualisiert. Was heißt das konkret? Installiert man unter Windows etwas, was nicht von MS kommt (zb ein MySQL Server, WordPress als WebApp) dann sollte man beten, dass diese Software einen eigenen Update-Mechanismus hat oder man darf sich selbst darum kümmern, dass diese Software auf dem aktuellen Stand bleibt. Auf meinem Homeserver hab ich nur eine „Fremdquelle“ einbinden müssen und das war die damit mein ClamScan schneller aktualisiert wird (vom ubuntu-dev-team)! Ich hab nicht ein Paket installieren müssen, dass nicht vom Distributor gekommen ist. Und selbst wenn (auf Clients z.B.) kümmert sich das System automatisch darum, dass diese Software aktuell bleibt. Solange man nicht an der Paketverwaltung vorbei installiert, kann man über eine automatisches Update die Kiste aktuell halten (und sogar den eventuell nötigen Reboot kann man automatisieren). Der Wartungsaufwand ist minimal.
  • Die Logs werden an einer Stelle abgelegt. Dafür kann MS zwar nix. Aber (fast) alle Dienste unter Linux nutzen einen weg Log-Files abzulegen. Gerade im Fehlerfall ist extrem angenehm nur an einer Stelle suchen zu müssen. Dem Windowsadmin ist Luxus leider nicht vergönnt.

Kurzum ich betreibe seit zwei Jahren einen Server mit Linux und bin jedes mal froh mich für Linux entschieden zu haben, wenn ich gezwungen werden einen Windowsserver zu verwalten (beruflich).

HTPC/MediaPC

Hier wird eine klare Empfehlung schon schwieriger. Auf der einen Seite ist hier das klare Problem der Hardware zu nennen. Nicht mehr jede Hardware funktioniert unter Linux. Ob nun TV, Sound, Grafikkarte oder Fernbedienungs- (IR/RF‘)-Empfänger, man muss immer vor dem Kauf der Hardware überprüfen ob diese auch unterstützt wird. Dazu kommt (in Deutschland) ein rechtliches Problem. Hier ist es per Gesetz verboten ein „wirksamen“ Kopierschutz zu umgehen. Was das im konkreten Streitfall bedeutet überlasse ich den Juristen. Praktisch bedeutet es, dass man sowohl beim anschauen von DVDs (CSS), BlueRay (AACS,VEIL,BD+) oder abspielen von Streams (FlashProtection) immer ein rechtliches Problem an der Backe haben kann. Technisch sieht die Abspielproblematik wie folgt aus:

  • DVD: kann ohne Einschränkung abgespielt werden.
  • BlueRay: Direkt abgespielt werden können nur BDs ohne DRM. Kommt DRM zum Einsatz muss man diesen aktiv brechen (rippen/entschlüsseln/umpacken). Ein direktes abspielen ist noch nicht möglich.
  • Streams: hier kommt es darauf an was für Streams verwendet werden. Fast alle Streams können „irgendwie“ abgespielt werden. Einzig Streams basiert auf Microsofts Silverligt Technologie (MaxDome) sind gar nicht abspielbar.
  • TV: Sowohl Analog, DVB, SD, HD und sogar PayTV sind abspielbar.

Neben diesem Unwägbarkeiten gibt es jedoch auch ein paar Vorteile:

  • Maximale Anpassbarkeit: Booten in unter 10 Sec (PowerOff), Betrieb ohne Fenstermanager direkt in das MediaCenter.
  • Breite Auswahl an „MediaCentern“, PVR-Backends und anderen sinnvollen Dingen.
  • Einfache Wartung (unterlagerte updates, ein Aufpoppen ala „Rechner jetzt Neustarten“ währen eines Films ist einfach scheiße)
  • Große Community

Das Abspielen von von FullHD Material ist problemlos möglich. Entweder hat man einen performanten CPU unter der Haube oder hat eine GPU mit Beschleuniger-Funktion. Auch hier sollte man sich vorab Informieren ob der die verwendete GPU unterstützt wird.

Fazit: mit entsprechender Vorbereitung läuft man in kein offenes Messer. Es stehen einem allle Möglichkeiten offen. Ich selbst betreibe nun seit einigen Monaten einen HTPC auf Linux Basis und hab bis jetzt noch keine Abstriche machen müssen.  Allerdings waren meine Ziele auch der Vorklärung angepasst.

Arbeitsstation/Desktop/Laptop

Der Punkt mit dem größten Risiko. Zum einen trifft man hier auf einefahrene Anwenungsmuster der Anwender zum anderen auf einen unkontrolierbaren Fundus an Hardware. Beim versuch zu Migrireren bin ich in zwei Schritten vorgangen. Erstmal einen Testrechner migriert (meine Arbeitsstation) und getestet „wie sich das anfühlt“. Danach hat sich folgendes Fazit eingestellt:

  • Handelsübliche Anwendungen wie Surfen, E-Mail, normale Office Anwenungen sowie der Großteil der Unterhaltungs-Anwendungen funktionieren Problemlos.
  • Spezialanwendungen: Hat man unter Windows eine bestimmte Anwendung gefunden, die man nicht mehr missen/ersetzten möchte, wird man Probleme bekommen. Einige Anwengunen lassen sich mit Wine zum Laufen zu bekommen. bei weiten aber nicht alle. Man muss sich entweder davon Verabschieden oder weiterhin Windows paralel betreiben.
  • Gaming: Das momentane Killerargument. Ein Teil der Spiele läuft unter Wine. Das ist aber jeh nach Spiel mit mehr oder minder viel „basteln“ verbunden. Im schlimmsten Fall pflegt man für jedes Spiel sein eigenes Setup. Wie auch bei den Filmen muss man ebenfalls fast immer DRM-Systeme umgehen um überhaupt was zum laufen zu bekommen.

Als Folge dessen habe ich auf allen Rechner auf den auch gespielt wird parallel ein Windows laufen. Da immer weniger gespielt wird, wird der Bedarf sinken. Die paar Spiele die noch anfallen, laufen unter Wine und lassen sich dort Verwalten. Das ist aber ein Prozess auf Zeit und geschieht ohen Druck. Für alles andere kommt ein Ubuntu-Linux zum Einsatz. Bei meiner „besseren Häfte“ geschah die Umstellung im Zuge eines „Windows muss mal wieder neu Installiert werden “ – Zykluses.  Seit diesem „Ereigniss“ gab es zwar kleineren Klärungsbedarf (Sicherheitskonzept usw) aber das ging alles Problemlos über die Bühne. Die Ständigen Bluescreens bei Windows (durch einen defekten Treiber) tun ihr übriges zur Akzeptans.

Zum Einsatz auf Geräten ohne „Spielehintergrund“ geht das alles entspannter zu, Dort gibt es nur die Frage, wird die Hardware von Linux unterstützt: wenn Ja gut, wenn Nein schlecht. Das muss man sich vorher, wie beim HTPC, informieren.

Fazit: Wenn man es mit bedacht angeht und seine Grenzen kennt (und vor allem die der Mitteilnehmer) kann man Linux sinnvoll in seine Heimumgebung integrieren. Auf der „Pro“ Seite hat man dann die einfache Wartbarkeit und die (momentane) Ruhe vor allerlei Viren und sonstigem Gesocks. Auch die (meiner Meinung nach) einfachere Bedinung ist hervorzuheben. Jedoch nimmt sich sonst Windows und Linux auf dem Desktop wenig.

Munin – „unknown warning“ unterdrücken

Ich nutzte Munin seitdem ich meine Serverstruktur am laufen habe und es hat mir gute Dienste geleistet.

Eine Sache hat mich doch immer ein wenig gestört. Ich besitze Geräte/Nodes die nicht 24/7 online sind, jedoch auch überwacht werden wollen, da sie keine direkte Interaktion mit dem Nutzer zulassen (oder der Nutzer es nicht will). Kurz: mein HTPC soll meckern, wenn was ist, aber bitte nicht während man gerade genüsslich einen Film schaut!

Bis „vor kurzem“ kam es dabei auf Seiten Munin immer zu Fehlermeldungen wie „WARNING <node>.<value> unknown“. Eine Mail mit solchen Zusammenfassung gab es am Tag mindestens 2 Mal. Einmal mit „Unknown“ und einmal mit „OK“ wenn der Rechner wieder da war. Unter den ganzen Unknown/OK Meldungen gingen die wirklich wichtigen Meldungen wie WARNING/ERROR/NOTICE leider unter, so dass ich einmal wöchentlich die Statistik aufrufen musste und nachschauen durfte…

es gibt Abhilfe. Man kann in der Munin-(Server)-Konfiguration bei der Node folgendes angeben:

 df._sdb1.unknown_limit 300

In dem oben angebenen Fall würde für das Plugin df Fieldname sdb1 erst nach 300 „Unknown“ Meldung wirklich eine Mail ausgelöst werden. Bei 5 Minuten pro Prüfungen macht das 25 Stunden, die der Rechner offline sein kann, ohne dass es eine Warnmeldung gibt.

Nachteil an der Sache, man muss das für jeden Plugin/Feldwert machen. Das führt in jedem Fall zur Plugin-Hygiene!

TV-Stick Sundtek MediaTV Pro

So hier mal ein kleiner Betrag zum Thema „Erfahrung mit Hardware“.

Als ich vor 2 Monaten auf der such nach Brauchbarer DVB Hardware war, machte sich schnell Ernüchterung bei mir breit. Wenn man ein Paar gesonderte Anforderungen hat, wird die Auswahl der Anbieter sehr schnell sehr klein. Größtes Problem, der native Support von Linux. Darunter verstehe ich nicht nur, dass es ein von der Community gepflegten Treiber gibt, sondern dass der Hersteller unterstützend zur Hand geht, z.b mit Dokumentation oder eigenen Patches.

Hat man diese Anforderung einmal ausgesprochen, reduziert sich der Anbietermarkt massiv. Träume wie eine DualTuner DVB-C LowProfile kann man ganz abschreiben. Ich bin dann irgendwann auf die Geräte von Sundtek gestoßen. Obwohl mir die Geräte anfangs gar nicht zusagten (USB, extern, budget-Karten) ging mir am Ende einfach die Alternativen aus.

Eine kleine „recherche“ durch deren Support-Forum stimmte mich aber fast euphorisch. Als erstes bekommt man mit, dass es sich bei den Treibern um Closed-Source Treiber handelt. Darüber kann man im ersten Moment entsetzt sein, da es zwei Dinge bedeutet. Support nur vom Hersteller und ein geschränkte Anwendungs-Architekturen. Beim weiteren lesen stößt unweigerlich auf die Liste der unterstützten Plattformen und Anwendungen. Das hat mich dann schon überrascht. Neben Anleitungen zur Installation auf Verschieden geschlossen Media-„Boxen“ gibt es eine detaillierte Liste mit welchen Applikationen der Stick getestet wurde. Darunter nicht nur die gängigen Plattformvertreter sondern auch Exoten oder gar Kombinationen die selbst von den Entwicklern noch als „experimentell“ gekennzeichnet sind. Dazu kommen ein Haufen Forenpost die auf Treiberprobleme hindeuten und meisten damit enden, dass eine neue Treiberversion released wird (zeitnah). Das ungewöhnliche daran ist, dass diese Post nicht gelöscht werden und das die Techniker detaillierte Anweisungen geben, zum Teil Zugang zu dem betroffen Kundensystem erbitten um dort zu debuggen. Sowas kenne ich sonst nur aus dem Suppportgeschöft von Großfirmen zu Großfirmen.

Positiv erwähnenswert ist, dass der Support nicht aufhört zu suchen, wenn sie ihre eigene Hardware als Fehlerquelle ausschließen können. Als ich selbst in die Verlegenheit kam, den Support zu kontaktieren gab es so lange Unterstützung bis ich wusste wo der Fehler zu suchen ist.

Die Hardware an sich ist nicht außergewöhnliches. Es handelt sich (je nach Modell) um eine Tunerkarte mit IR-Sensor. Mitgeliefert werden eine Antenne, eine kleine Fernbedienung und ein Adapterkabel für die zusätzlichen Eingänge (analog Radio,Composite usw). Erwähnenswert ist hier, das der Stick selbst im Dauerbetrieb nur Handwarm wird.. Nicht wie z.b bei meiner Pinnacle Karte. Die schon im Idle als Heizung dienen kann.

Die Treiberinstallation geht flott von der Hand. Man lädt ein install-script das ausgeführt wird. Sofort danach kann man den Stick ansprechen. Es wird alles mitgeliefert was man braucht. Profiele für die Remote-Control, die lirc ein Stellung wird gesetzt usw. Wenn man kein eigenes Setup hat, ist man wirklich sehr schnell mit der Installation durch. Für alle anderen fängt hier das „fummeln“ an. Beim Hochfahren des Sticks wird mit „Gewalt“ der Pfad in der LIRC-Config gesetzt und dieser Dienst neu gestartet. Um das zu unterdrücken, muss man den Script opt/bin/lirc.sh totlegen. In zukünftigen Treiberversionen will Sundtek das Verhalten anpassen. Das Flag um die LIRC Config abzuschalten gibt es schon, es wird nur nicht ausgewertet. Was hingegen super gelöst ist, sind die Device-Atteched/Detached-Hooks. Man muss keine firckeligen UDEV-Rules mehr schreiben oder sonst irgendwelche Klimbzüge machen um das PVR-Backend nur dann zu starten, wenn auch ein Device da ist. Der Treiber führt schön säuberlich eine Schnittstelle raus, die ein Script aufruft, wenn ein Device aufgetaucht und betriebsbereit ist. So einfach kann die Welt sein.

Daneben sind die umfassenden Einstellmöglichkeiten des Treibers erwähnenswert. Das Manual ist zwar ein wenig knapp aber im Forum gibt es eine menge Tipps wo man wie drehen muss, wenn es mal irgendwo hakt. Die Möglichkeiten reichen vom direkten ausgeben der Signalqualität über zu und abschalten von Decodieroptionen bis zum „remote mounten“ des Gerätes. Letzteres ist sehr hilfreich, wenn man den CPU des HTPC im verdacht, oder man sowohl nicht an einem HTPC entwickeln will. Dann mountet man das Gerät über das Netzwerk an seiner „Höllenmaschine“ und kann dort mal das PVR-Backend testen/weiter entwickeln.

Alles in allem bin ich positiv überrascht von der Hard/Software. Was mir nun nur noch fehlt ist eine DualTuner-Variante und eine Treiber-variante die man über apt installieren kann;)

AES-XTS-PLAIN – Retest

Nach einer langen Zeit (über einem Jahr) war es mal wieder Zeit zu testen, wie es um die Performance meines NAS bzw dessen Verschlüsselung steht. Leider hat sich zu damals die Plattenconfiguration geändert, so dass man eigendlich die Performance nicht vergleichen kann. Jedoch war damals wie heute nicht der RAID-IO der limitierende Faktor sondern die Cipher-Performance. Wie damals kommt ein RAID5 als Storage-Basis zum Einsatzt. Diesmal nur 1GB statt 250GB Platten. Weiterhin werkelt ein 2.5GHz Intel Core2Duo samt 4GB Ram in dem Server.

Da auf dem Storage schon ein Haufen Daten liegen entfallen leider die Vergleichstest der anderen Cipher, da ein on-the-fly umschlüsseln nicht möglich ist und ich keine Lust hab 8 stunden zu warten um ein Full-Backup einzuspielen.

Nun zu den Testergebnissen von Bonnie++:

  • Write Char: 1,31 MB/s (aktuell) statt 65,85MB/s (alt)
  • Read Char: 2,46 MB/s (aktuell) statt 29,46MB/s (alt)
  • Write Block: 128,57 MB/s (aktuell) statt 133,81MB/s (alt)
  • Rewrite: 38,68 MB/s (aktuell) statt 33,14MB/s (alt)
  • Read Block: 72,18 MB/s (aktuell) statt 57,13 MB/s (alt)

Zusammenfassung: Wie gehabt können Daten scheinbar schnell entschlüsselt als verschlüsselt werden. Was auch auffällt, dass die ersten drei Testwerte sehr viel schlechter sind als beim ersten Test. Das schiebe ich mal auf das initialisierte XFS Filesystem. Das FileSystem ist zu 55% gefüllt. Daher kommt es beim Write zu einer Lückensuche, die damals bei einem frisch aufgesetzten Filesystem nicht nötig war. Bei BlockRead und Rewrite zeigt sich dann, dass es Verbesserung in der Performance der Algorithmen gab. Leider scheint die Parallelisierung des AES-Algoritmus noch nicht wirklich weit voran geschritten zu sein. Ein CPU-Kern langweilt sich immer noch vollständig…