c’t Sonderheft: Security

Seit letzter Woche ist das c’t Sonderheft über das Thema Security im Handel. Ich habe mich da mal kurz durchgearbeitet.  Das Heft richtet sich, wie immer, hauptsächlich an Einsteiger und ambitionierte Nutzer. Fleißige Leser von heise-Secutiry werden wenig neues erfahren. Dafür sind die Themen im Heft besser aufbereitet. Ein Beispiel: Über die Sicherheitseinstellungen von Facebook findet man im Netz hinreichend Informationen. Im Heft findet man alles auf einer Seite.

Das Themenspektrum selber ist breit gefächert und nicht auf reine IT-Security beschränkt. Überhaupt findet sich sehr wenig  zum Thema „Absichern von Systemen“. Abgesehen von einer „Kaufberatung“ für Virenscanner und Anleitungen zu „Unveränderbaren“ Betriebssystemen wird nicht weiter auf spezifische OS-Sicherheitsmaßnahmen eingegangen.

Das stört aber nicht weiter. Die zusätzlichen Themenfelder sind breit gefächert. Es wird ausführlich (auf Einsteigerniveau) die Sicherheitsarchitektur von iOS und Android erläutert. Es wird Passwortsicherheit eingegangen („Was ist ein sicheres Password“), Hardware analysiert (Massenspeichen, E-Perso). Daneben gibt es interessante Begleitartikel rund um das Thema Sicherheit („Sicherheits-Mythen“, „Scareware-Geschafft“, usw).

Meiner Meinung nach fällt eine Artikelreihe aus dem Rahmen: „Tatort Internet“ unter dies etwas reißerischen Titel wurden schon vor einiger Zeit fünf Artikel bei heise Security veröffentlicht, die jeweils einen Angriff untersuchen. Ob NOP-Slide in JavaScript oder Flash als Einfallstor, jeder dieser Artikel legt detailliert dar, wie der Angriff seinen Lauf nimmt, welche Exploits genutzt werden usw. Nach der Lektüre versteht man ein wenig besser, wie und warum man sich Viren einfängt.

Ebenfalls erwähnenswert ist der Artikelblock rund  um das Thema Datenschutz,(Internet)Privacy. Dabei wird konkret auf Google und Facebook eingegangen. Es gibt Anwendungstipps wie man sich Schützt und welche Auswirkung diverses Verhalten haben kann.

Fazit: Eine lohnende Lektüre für alle, die etwas besser Verstehen wollen wie es um ihre „Sicherheit“ bestellt ist.

WINE – wenn mal nichts mehr geht…

Wenn unter WINE laufende Programme abschmieren hat das unter Umständen negative Auswirkung auf das Host-System. Weniger das es abstürzt sonder eher, dass man es nicht mehr bedienen kann. Steckt man einmal in der Misere, das WINE nicht mehr reagiert hat man zwei Möglichkeiten.

  • WINE abschießen: [STRG]+[ALT]+[ESC] und dann einem Mausklick die WINE-Anwendung abschießen.
  • Anderes Terminal + WINE Prozess killen: mit [STRG]+[ALT]+[FX]  in ein anderes Terminal wechseln, anmelden und mit htop oder kill den entsprechenden Prozess wegschießen.

Gallery 3 – Ein review

Wer in meine Programmiersektion schaut, sieht das ich mal versucht hatte, eine Galerie-Web-Applikation selber zu schreiben. Erst in .NET und anschließend in JSF. In beiden Varianten hab ich es immer zu einem funktionierenden Prototypen gebracht. Leider habe ich dann nie die Zeit gefunden, diese dann auszubauen. Das lag nicht zuletzt auch daran, das es weder eine bezahlbare Standleitung gibt oder die Preise im ApplikationHosting mir ein wenig zu hoch waren, für ein „mal eben zum Spaß“ Projekt.

Also machte ich mich vor gut vier Monaten auf die Suche nach brauchbaren Galerie-Anwendungen. Ich hab dazu den Leitfaden aus dem c’t-Sonderheft zum Thema Server genommen. Dort wurden einige gute Web-Photogalerien vorgestellt. Dabei bin ich an der Gallery3 hängen geblieben.

Da es schon eine Weile her ist, dass ich die Entscheidung getroffen habe, will ich mich gar nicht auf einen großen Vergleich aller Systeme einlassen. Am Ende hat bei mir nicht Einzelfunktionen sondern der Gesamteindruck entschieden. Dieser kann bei jedem anders sein.

Die Randdaten: Gallery 3 läuft auf PHP Basis und setzt MySQL als DB ein. Es bietet ein WebBasiertes Front als auch Backend und ein Haufen an Erweiterungen. Die waren es schlussendlich auch, die mich Überzeugt haben die Gallery3 weiter zu nutzen.

Die Gallery3 ist eine Neu-Entwicklung der Gallery2. Diese ist zu groß und damit zu langsam geworden. Daher haben die Entwickler ein komplett neues Konzept aufgesetzt. Das merkt man im ersten Moment auch am Funktionsumfang. Standardmäßig wird wirklich nur eine kleine schlanke Web Galerie angeboten. Das Nutzer-Konzept kann überzeugen aber es fehlt z.B. an einer Maske über die sich neue Nutzer registrieren können. In den Kerndisziplinen einer Gallery gibt sich Gallery3 keine Blöse. Frei Sortierung, Thumbnailing, Formatierung, Darstellung und Unterstützung der meisten EXIF/XMP Tags sind dabei.

Erweitert und aktiviert man dann noch weitere Module kommt richtig Freude auf. SlideShows, Tagdarstellung und Suche und diverse Verbesserungen in der Navigation machen die ganze Anwendung sehr benutzerfreundlich.

Besonders hervorzuheben ist, dass es für Gallery3 ein LightroomPlugin gibt, dass über die REST Schnittelle mit Gallery3 koppelt. So kann man direkt seine Wunschgalerie zusammenstellen und hoch laden, sehr angenehm. Ich selbst versuche ein Gallery3 Plugin für XBMC zu basteln. Die Beta hab ich auch schon, bloß gibt es noch ein paar Probleme mit XBMC die einen reibungslosen Betrieb verhindern. Ansicht ist die REST-API aber sehr praktisch.

Nach nun gut vier Monaten kann ich mein Fazit ziehen. Die Gallery3 erfüllt ihren Zweck und nur den.  Es ist kein aufgeblasenes CMS sondern einfach nur eine WebGallery mit netten Funktionen. Besonders die Integration von GoogleMaps und co hat es mir angetan. Auch die Verschlagwortung aus LightRoom her raus kommt gut an. Nachteilig ist, dass die Gallery3 extrem Speicherintensiv ist. Von jedem Bild werden zwei Thumbnails angelegt. Das kostet nicht nur Zeit, sondern frisst auch Speicher. Bei wenig frequentierten Galerien wäre eine Inplace-Erzeugung vieleicht geschickter. Aber das ist Kritik am Rande!

EGroupware und SyncML im Einsatz

Wer ein mobiles Gerät mit Android seit eigen nennt, wird schnell feststellen, dass nur zwei sinnvolle Sync-Optionen vorgesehen sind: Google(Mail/Konto) und Exchange. Wer wie ich ersteres nicht hat und auch nicht will und für letzteres kein Sinn sieht (OpenXchange ist die OpenSource Alternative) der muss etwas suchen um seine Kalender, Kontakte und ToDo-List zu synchronisieren.

Seit einiger Zeit kristallisiert sich SyncML  als „Transportstandart“ für genau diese Aufgabe heraus. Der Vorteil dieses offenen Standards liegt auf der Hand. Es gibt verschiedene Backends und Frontends, die alle in unterschiedlicher Kombination miteinander Synchronisieren können. Dieser Artikel geht auf beides ein.

Mein Setup sieht wie folgt aus:

  • mehrere Thunderbird Endgeräte – mobil wie stationär
  • mehrere mobile Endgeräte mit verschieden OS Typen (Symbian, Android, usw)
  • Outlook/Exchange (Arbeitsrechner)
  • Ubuntu-Server als zentrale Datenhalde.

Das Frontend

Recht schnell bin ich auf Funambol gestoßen. Diese Firma bietet Sync-Tools für alle möglichen Plattformen, einen SyncML-Server und einen CloudService. Funambol betreibt dabei das typische OpenSource – Geschäfftsmodel. Code und Tools kostenlos, den Service und einige Features gibt’s gegen Bares. Aber das stört nicht. Zum einen gibt es den FunambolServer (SyncML) als installpacket zum anderen kann man auch auf andere SyncML-Angbote zurückgreifen. Das Backend ist frei konfigurierbar. Mein Fazit nach zwei Wochen mit Funambol im Test:

  • Thunderbird: Erst einmal muss man das Plugin finden. Dazu muss man sich das Plugin entweder selber bauen oder unter www.memotoo.com ein vorkompiliertes Paket herunter laden. Einmal installiert funktioniert alles wie man es sich vorstellt. Adressbücher, Kalender und Task werden ordnungsgemäß synchronisiert.
  • Android: Auch hier gibt es eine Funambol-Applikation kostenlos im markten. Einmal installiert, legt es ein neues „Synchronisations-Konto“ an. Es existiert neben Exchange und Google-Mail dann noch eine weite SyncQuelle, die sich schön in die Android-Oberfläche einbindet. Aufbau der Applikation und Funktonumfang entspricht den Standart Funambol Desktop-Client mit einer Ausnahme: auf dem Android gibt es (noch) keine Task. Es gibt noch keine Task-App die mit Funambol koppelt – leider.
  • Outlook: hier gibt es ein offizielles Plugin das ebenfalls einwandfrei funktioniert.

Eine Einschränkung gibt es jedoch: Funambol scheint beim syncen „marker“ in die jeweiligen Kalendereinträge zu machen (id). Wird der Kalender aber nicht lokal gespeichert sondern ebenfalls synchronisiert oder gar über Netzwerk eingebunden (Exchange/ICS/CalDav) gehen diese Informationen verloren. Der Client ist scheinbar nicht mehr in der Lage, Einträge die vom Server kommen zuzuordnen, mit der unschönen Folge das Dubletten entstehen. Bei meinem Outlook muss ich auf eine veraltete Funambol Version (8.72) setzten, weile nur noch diese den „One-Way“ Modus unterstützt. Dabei überträgt der Client (wahlweise) nur Zum Server oder Empfängt nur vom Server.

Das Backend

Funambol bietet auch einen SyncML Server.  Bei diesem handelt es sich um ein Java – basierten Server samt Konfiguration. Im ersten Überblick wirkte das alles ein wenig „unübersichtlich“ und wenig strukturiert aus. Ich muss aber gestehen das ich mir den Server nur ganze 2 Stunden angeschaut habe. Nebenher hatte ich mir noch ein EGroupware Server aufgesetzt und direkt verglichen. Diesen Vergleich hat der Funambol-Server aus folgenden Gründen verloren:

  • Funambol setzt eine eigene Server-Struktur auf. Dieser Server braucht einen Port den ich durch meine FW Routen muss und so weiter. Auf meinen Server läuft aber schon ein Apache. Egroupware nutzt diesen, so fällt der Mehraufwand weg.
  • Funambol setzt sein eigenes DB-Backend ein. Die wollen gesichert werden. EGroupware kann alle DB-Backends ansprechen, die PHP beherrscht. Standardmäßig komm MySQL zum Einsatz.
  • Und mein Totschlag-Argument: Funambol kann man (noch) nicht aus einer apt-Quelle installieren. Man muss sich also selber kümmern ob und wie man das ganze aktuell hält. EGroupware gibt es als Paket aus den offiziellen quellen.

Bei Egroupware handelt es sich ebenfalls um eine OpenSource-Projekt mit kommerziellen Grundgerüst. Die Community-Edition gibt es kostenlos, den Service muss man kaufen. Man kann das Paket direkt aus den offiziellen Quellen beziehen (die sind veraltet) oder man greift auf Quellen des Herstellers zurück. Dieser bietet für fast alle Debian/Ubuntu-Verianten die quellen an.

Standardmäßig wird EGroupware so installiert das es ein Anwendung unter „http://localhost/egroupware“ gibt. Das kann man wie gewohnt über die Apache-configs umbiegen und anpassen. Die geführte Installation in der Webanwendung gestaltet sich ein wenig hackelig. Das ist bedingt durch den Umstand, dass EGroupware für große Mittelständler gedacht ist. Es unterstützt Domänenkonzepte, Mailserver, verschiedenste Authentifizierungen usw Für den Zweck der einfachen „Ein Mann Synchronisierung“ ein wenig oversized aber es gibt schlimmeres.

Einmal installiert und eingerichtet zeigt sich EGroupware sehr aufgeräumt und übersichtlich. Besonders hervor gestochen haben folgende Funktionen:

  • Es gitb unterschiedlichste Sync-Schnittstellen für ein und das selbe. Zum Beispiel kann der Kalender unter ./calendar oder calendar angesprochen werden. Jede dieser Schnittstellen kann man ein eigenes Konflikt-Management vorgeben.
  • Es wird die WebDav – Schnittstelle angeboten. Hat man Festrechner, die immer mit dem Server verbunden sind, kann man die Kalender bequem mittels WebDav einbinden. Insofern die Kalender der „Kollegen“ freigegeben sind kann man sogar die einbinden. Der Link sieht dann so aus: https://egroupware/groupdav.php/<username>/calendar
  • Legt man einen Eintrag im Kalender an und hinterlegt dabei einen Gesprächspartner (E-Mail) gleicht Egroupware automatisch mit der internen Kontakt-Liste ab und macht entsprechende Einträge bzw. versendet E-Mails
  • Sowohl IMAP als auch POP Server werden unterstützt, auch SMTP wird angeboten – Es muss aber kein Mail-Server angegeben werden!
  • Das WebEnd-ist ansprechend und übersichtlich.

Fazit

Seit zwei Wochen synchronisiere ich erfolgreich zwischen allen meinen Geräten. Von der kleinen Outlook-Einschränkung mal abgesehen funktioniert das Problemlos. Besonders das Feature, dass meine Freundin jederzeit sehen kann, wie meine geschäftlichen Termine liegen bzw. mir von zu Hause Termine „rein knallen“ kann, erleichtert mir ein wenig das leben. Der Verwaltungsaufwand hält sich in Grenzen, da fast alles aus den Mail-Clients her raus gelöst werden kann. Eine klare Empfehlung an alle die ihre Kontaktdaten,Kalender und Aufgaben lieber nicht in der Cloud speichern wollen aber dennoch auf den SyncService nicht verzichten wollen.

Weitere Links:

Wenn rdiff-backup mal streikt…

Rdiff-backup ist meine favorisierte Backuplösung. Sie hat einfach zu viele nette Feutures, allen vor ran der geringe Speicherplatzverbrauch plus der Datei-Historie. Leider hat rdiff-backup ein Problem mit seiner Stabilität.  Wenn es mal zu einem inkonsistenten Backup kommt. steht man ziemlich mit runter gelassenen Hosen da. Ich selbst leide an einem solchen Problem. Um zu ermitteln ob mit einem Backup alles in Ordnung ist muss man folgenden Befehl ausführen:

rdiff-backup --verify [BackupDir]

Liefert dieser Befehl keinen Output kann man es ruhig angehen lassen. Gibt es jedoch Meldungen wie diese hier, sollte man auf jeden Fall prüfen was mit dem Backup nicht stimmt.

Warning: Computed SHA1 digest of

doesn't match recorded digest of

Your backup repository may be corrupted!

Wenn man dem nicht traut kann man mittels folgenden Befehl einen kompletten vergleiche Quelle<>Backup anstoßen:

rdiff-backup --compare-file [SourceDir] [BackupDir]

Dieser Befehl liefert die Files, bei dehnen sich Quelle und Backup unterscheiden unabhängig davon ob sich laut Change-Time irgendwas an der Datei geändert haben sollte.
Zusätzlich gibt es noch:

rdiff-backup --compare-hash [SourceDir] [BackupDir]

Dieser macht das gleiche wie der vorherige Befehl, nur vergleicht er nur die gespeicherten Hashes mit den neu genierten der Qulle. Das hilft nichts, wenn sich die Dateien im Backup geändert haben (z.B. korruptes File-System).
Kurz wenn der „compare-file‘ Befehl sagt „alles ok“, dann kann man dem trauen. Er ist jedoch auch der aufwändigste. Jeh nach Datenmenge kann das 24 Stunden und mehr brauchen. Leider hat der Befehl auch noch einen anderen Hinkfuß. Für die Dauer der Prüfung darf die Quelle nicht geändert werden, da es sonst zu unnützen Flaschmeldungen kommt.

Hat man einmal eine Datei (oder mehrere) ermittelt die defekt im Backup gespeichert vorliegt muss man diese im Backup aktualisieren. Leider bietet rdiff-backup dafür keinen Mechanismus. So das man händisch bei allen dateien  den „mdoified“-Zeitstempel auf einen Wert nach dem letzt Backup setzt muss. Also einfach ein touch auf alle Quelldateien bei den das Backup nicht in Ordnung ist, anschließend rdiff-backup nochmal laufen lassen.

Vollständige Migration zu Linux

Seit nun mehr zwei Jahren betreibe ich in meinem privaten Umfeld das Projekt „nie wieder Windows“. Angefangen hat es mit dem hochziehen eines lokalen Servers als NAS, griff über auf einen HTPC und endete nun schlussendlich mit der Migration meiner Desktop-Rechner. Da ich ein recht „vielfältiges“ Aufkommen von Rechnern und Anforderungen habe, will ich mal meine Erfahrung für die niederschreiben, die ebenfalls mit dem Gedanken spielen umzusteigen.

Zu aller erst der Grund meines Wechsels. Mit dem Wechsel von XP zu Vista hat MS mal wieder die Daumenschraube an zusetzten versucht, ala „Technology XYZ“ gibt es aber nur für Vista, den alten Scheiß braucht ihr nun nicht mehr. Der Versuch auf Vista zu migrieren war eine komplette Katastrophe. Anfangs gingen nicht mal meine Standard-Eingabegeräte korrekt. Unabhängig ob die Redmonder dafür etwas konnten oder nicht, ab diesem Moment war der Umstieg von WindowsVersion zu WindowsVersion genauso „kompliziert“ wie die Migration nach Linux. Zu diesem Zeitpunkt begannen die Test und Vorbereitungen wie ein Umstieg zu Linux denn „schmerzfrei“ von statten gehen könnte.

Zu meinen Rahmenbedienungen:

  • Ich lebe zu zweit in meinem Haushalt und meine bessere Hälfte ist nicht gewillt meine „Hirngespinste“ mitzutragen. Ergo eine Umstellung muss OHNE Reibungsverluste von statten gehen.
  • Ich bin ein Spieler im Sinne von „Computerspieler“. Es gibt Zeiten da will ich die Kiste einfach nur anmachen und anfangen zu zocken. Das alles ohne viel Stress und gefummel.
  • Ich bin aber auch ein Bastler. Es muss nicht immer gleich die Ideallösung sein. Es kann auch mal kompliziert werden. Programmieren, frickeln, Betatesten all das macht mir Spaß. Auch das durchforsten von Doku, Foren und einlesen in Komplexe Sachthemen ist mir nicht Fremd.
  • Ich bin Faul. Der Endausbau sollte mit minimalen Aufwand wartbar sein.

Es hat sich schnell gezeigt, mit Linux kann man gewissen Anforderungen nur Bedingt bedienen. Gleich vorweg, wer heute in den Laden geht und ein Handelsübliches PC-Spiel aus dem Regal greift, sollte eine funktionierende Windows-Installation sein eigenen nennen oder Leidensfähig sein. Andere Anforderungen lassen sich hingegen sehr gut, teilweise sogar besser als bei Windows abbilden.

Als Plattform hab ich Ubuntu gewählt. Es bot zum Zeitpunkt der Migration den besten Mix aus Aktualität (2 Releases pro Jahr), Support (Foren, Aktive Community), Zugänglichkeit (Doku) und Wartbarkeit. Begonnen hab ich mit 9.04 und setzt aktuell auf 10.04 LTS. Alle geschilderten Erfahrungen basieren auf dieser Basis.

Homeserver

Im Bereich des Serverbetriebs spielt Linux seine volle Stärke aus. Hier merkt man einfach, aus welcher Ecke Linux kommt. Das beginnt damit, dass man einen Server komplett Remote ohne GUI installieren kann, geht weiter über die Art der Konfiguration und endet damit, dass standardmäßig nicht jeder Dödel ohne weiteres den Rechner runter fahren kann. Genug der Seitenhiebe. Konkret manifestiert sich der Vorteil von Linux gegenüber Windows im Serverbetrieb in folgenden Fakten:

  • keine Lizenzkosten. Schonmal jemand ein Win2003/Win2008/SmallBuisinessServer gekauft…
  • keine Abstriche in Funktionalität: Hier ist Linux Windows eher überlegen. Alles was man für den Heimgebrauch so braucht, gibt es für Linux eher als für Windows und meistens auch noch frei verfügbar. Beispiele: Mailserver, Postfächer, LDAP-Server, Storage-Server, Webserver, Applikation-Server, Monitoring(!!!). Eine Ausnahme Bilden die DB-Server. Sowohl ein Oracle als auch ein MySQL laufen nativ unter Linux. Bei anderen DB-Systemen (MS SQL) sieht es da schlechter aus.
  • Hardware-Support: Alle nennenswerte ServerHardware kann von Linux angesprochen werden. Ob nun eine RAID-Controller oder eine abgefahrene ISP-Schnittstelle.
  • Integration: Jeh nach Distribution kann die Verfügbarkeit von Paketen zwar abweichen, aber es gibt fast immer einen Weg fremde Pakete einzubinden. Diese werden dann Automatisch mit aktualisiert. Was heißt das konkret? Installiert man unter Windows etwas, was nicht von MS kommt (zb ein MySQL Server, WordPress als WebApp) dann sollte man beten, dass diese Software einen eigenen Update-Mechanismus hat oder man darf sich selbst darum kümmern, dass diese Software auf dem aktuellen Stand bleibt. Auf meinem Homeserver hab ich nur eine „Fremdquelle“ einbinden müssen und das war die damit mein ClamScan schneller aktualisiert wird (vom ubuntu-dev-team)! Ich hab nicht ein Paket installieren müssen, dass nicht vom Distributor gekommen ist. Und selbst wenn (auf Clients z.B.) kümmert sich das System automatisch darum, dass diese Software aktuell bleibt. Solange man nicht an der Paketverwaltung vorbei installiert, kann man über eine automatisches Update die Kiste aktuell halten (und sogar den eventuell nötigen Reboot kann man automatisieren). Der Wartungsaufwand ist minimal.
  • Die Logs werden an einer Stelle abgelegt. Dafür kann MS zwar nix. Aber (fast) alle Dienste unter Linux nutzen einen weg Log-Files abzulegen. Gerade im Fehlerfall ist extrem angenehm nur an einer Stelle suchen zu müssen. Dem Windowsadmin ist Luxus leider nicht vergönnt.

Kurzum ich betreibe seit zwei Jahren einen Server mit Linux und bin jedes mal froh mich für Linux entschieden zu haben, wenn ich gezwungen werden einen Windowsserver zu verwalten (beruflich).

HTPC/MediaPC

Hier wird eine klare Empfehlung schon schwieriger. Auf der einen Seite ist hier das klare Problem der Hardware zu nennen. Nicht mehr jede Hardware funktioniert unter Linux. Ob nun TV, Sound, Grafikkarte oder Fernbedienungs- (IR/RF‘)-Empfänger, man muss immer vor dem Kauf der Hardware überprüfen ob diese auch unterstützt wird. Dazu kommt (in Deutschland) ein rechtliches Problem. Hier ist es per Gesetz verboten ein „wirksamen“ Kopierschutz zu umgehen. Was das im konkreten Streitfall bedeutet überlasse ich den Juristen. Praktisch bedeutet es, dass man sowohl beim anschauen von DVDs (CSS), BlueRay (AACS,VEIL,BD+) oder abspielen von Streams (FlashProtection) immer ein rechtliches Problem an der Backe haben kann. Technisch sieht die Abspielproblematik wie folgt aus:

  • DVD: kann ohne Einschränkung abgespielt werden.
  • BlueRay: Direkt abgespielt werden können nur BDs ohne DRM. Kommt DRM zum Einsatz muss man diesen aktiv brechen (rippen/entschlüsseln/umpacken). Ein direktes abspielen ist noch nicht möglich.
  • Streams: hier kommt es darauf an was für Streams verwendet werden. Fast alle Streams können „irgendwie“ abgespielt werden. Einzig Streams basiert auf Microsofts Silverligt Technologie (MaxDome) sind gar nicht abspielbar.
  • TV: Sowohl Analog, DVB, SD, HD und sogar PayTV sind abspielbar.

Neben diesem Unwägbarkeiten gibt es jedoch auch ein paar Vorteile:

  • Maximale Anpassbarkeit: Booten in unter 10 Sec (PowerOff), Betrieb ohne Fenstermanager direkt in das MediaCenter.
  • Breite Auswahl an „MediaCentern“, PVR-Backends und anderen sinnvollen Dingen.
  • Einfache Wartung (unterlagerte updates, ein Aufpoppen ala „Rechner jetzt Neustarten“ währen eines Films ist einfach scheiße)
  • Große Community

Das Abspielen von von FullHD Material ist problemlos möglich. Entweder hat man einen performanten CPU unter der Haube oder hat eine GPU mit Beschleuniger-Funktion. Auch hier sollte man sich vorab Informieren ob der die verwendete GPU unterstützt wird.

Fazit: mit entsprechender Vorbereitung läuft man in kein offenes Messer. Es stehen einem allle Möglichkeiten offen. Ich selbst betreibe nun seit einigen Monaten einen HTPC auf Linux Basis und hab bis jetzt noch keine Abstriche machen müssen.  Allerdings waren meine Ziele auch der Vorklärung angepasst.

Arbeitsstation/Desktop/Laptop

Der Punkt mit dem größten Risiko. Zum einen trifft man hier auf einefahrene Anwenungsmuster der Anwender zum anderen auf einen unkontrolierbaren Fundus an Hardware. Beim versuch zu Migrireren bin ich in zwei Schritten vorgangen. Erstmal einen Testrechner migriert (meine Arbeitsstation) und getestet „wie sich das anfühlt“. Danach hat sich folgendes Fazit eingestellt:

  • Handelsübliche Anwendungen wie Surfen, E-Mail, normale Office Anwenungen sowie der Großteil der Unterhaltungs-Anwendungen funktionieren Problemlos.
  • Spezialanwendungen: Hat man unter Windows eine bestimmte Anwendung gefunden, die man nicht mehr missen/ersetzten möchte, wird man Probleme bekommen. Einige Anwengunen lassen sich mit Wine zum Laufen zu bekommen. bei weiten aber nicht alle. Man muss sich entweder davon Verabschieden oder weiterhin Windows paralel betreiben.
  • Gaming: Das momentane Killerargument. Ein Teil der Spiele läuft unter Wine. Das ist aber jeh nach Spiel mit mehr oder minder viel „basteln“ verbunden. Im schlimmsten Fall pflegt man für jedes Spiel sein eigenes Setup. Wie auch bei den Filmen muss man ebenfalls fast immer DRM-Systeme umgehen um überhaupt was zum laufen zu bekommen.

Als Folge dessen habe ich auf allen Rechner auf den auch gespielt wird parallel ein Windows laufen. Da immer weniger gespielt wird, wird der Bedarf sinken. Die paar Spiele die noch anfallen, laufen unter Wine und lassen sich dort Verwalten. Das ist aber ein Prozess auf Zeit und geschieht ohen Druck. Für alles andere kommt ein Ubuntu-Linux zum Einsatz. Bei meiner „besseren Häfte“ geschah die Umstellung im Zuge eines „Windows muss mal wieder neu Installiert werden “ – Zykluses.  Seit diesem „Ereigniss“ gab es zwar kleineren Klärungsbedarf (Sicherheitskonzept usw) aber das ging alles Problemlos über die Bühne. Die Ständigen Bluescreens bei Windows (durch einen defekten Treiber) tun ihr übriges zur Akzeptans.

Zum Einsatz auf Geräten ohne „Spielehintergrund“ geht das alles entspannter zu, Dort gibt es nur die Frage, wird die Hardware von Linux unterstützt: wenn Ja gut, wenn Nein schlecht. Das muss man sich vorher, wie beim HTPC, informieren.

Fazit: Wenn man es mit bedacht angeht und seine Grenzen kennt (und vor allem die der Mitteilnehmer) kann man Linux sinnvoll in seine Heimumgebung integrieren. Auf der „Pro“ Seite hat man dann die einfache Wartbarkeit und die (momentane) Ruhe vor allerlei Viren und sonstigem Gesocks. Auch die (meiner Meinung nach) einfachere Bedinung ist hervorzuheben. Jedoch nimmt sich sonst Windows und Linux auf dem Desktop wenig.

3Ware/LSI 9560SE Activity Indication LEDs

Bei den 9560SE Reihe kann man (wie auch bei fast allen anderen RAID-Controllern) kann man sowohl LEDs als auch eine „Enclosure-Einheit“ anschließen. Werden zwei LED-Modi angeboten.

  1. HDD – Status – Indication: Fällt eine Platte aus ist es ganz praktisch, wenn der RAID-Controller anzeigt welche Platte man austauschen muss. So vermeidet man es, die falsche Platte zu ziehen. 
  2. HDD – Access – Einfaches blinken ob auf eine Platte zugriffen wird oder nicht. Dabei gibt es aber eine „SUM-LED“ in jedem Block von 4 HDD-LEDs (4+1)

Leider ist das Manual nicht wirklich aussagekräftig, was für diese Funktionalitäten vor rausgesetzt wird, oder welche Feinheiten es gibt.

  1. Status-Indication funktioniert nur mit angeschlossenem I2C-Enclosure. Schließt man LEDs direkt an den Controller an, dienen diese nur zur anzeige von Lese/Schreib-Zugriffe.
  2. Von allem vorhanden SUM-LEDs funktioniert immer nur die Höchstwertige. In Abhängigkeit wo die Platten (beim Boot) gesteckt sind, wird die LED ausgewählt. Anstatt die Aktivität in einem Block aus 4 HDDs anzuzeigen, wird der zugriff auf alle Festplatten angezeigt.

 

RAID-Access in Aktion

Die wichtigesten mdadm Befehle im Überblick

cat /proc/mdstat #listet den aktuellen Status aller bekannten Raid-Devises

mdadm --detail --scan /dev/mdX #zeigt detailierte informationen eines Raid-Arrays
mdadm --examine /dev/sdX #scannt bei einem beliebigen device nach Raid-MetaInformationen
mdadm --assemble /dev/mdX /dev/sdX [/dev/sdY] ... [--force] #Startet ein Raid-Array --force auch wenn es degraded ist

mdadm --stop /dev/mdX #stop ein Raid-Array (wird benötigt um die Metadaten zu löschen!)

mdadm --manage /dev/mdX -a /dev/sdX #fügt eine neue Platte einem Array hinzu (Platte wird als spare genutzt)
mdadm --manage /dev/mdX -f /dev/sdX #markiert eine Platte als "fehlerhaft"
mdadm --manage /dev/mdX -r /dev/sdX #entfernt eine disk aus einem Array
mdadm --manage /dev/mdX -r detached #entfernt alle nicht mehr vorhandenen Disks aus einem Array raus.
mdadm --grow /dev/md/mdX --raid-devices n #nutze n-Platten für den raid (gibt Spares frei oder nutz Spares für den Raid)

mdadm --zero-superblock /dev/sdX #entfernt alle Metainformationen von einer Disk

Scriptes, Regex und die lang-Environment-Variable

Wer sich eigene bash-Scriptes schreibt und diese ab und an mit RegExes versieht wird irgendwann (freiwillig oder unfreiwilig) feststellen dass der output von manchen Programmen davon abhängt in welchem Kontext sie aufgerufen werden. Was blöd ist, da zb der cron-Daemon einen anderen Kontext hat, als der Systemadmin. Folge ein Skript funktioniert unter dem einem User aber unter dem anderen nicht… da hilft auch sudo nur bedingt.

mittels folgendem Befehl kann man in einem Skript die Umgebungssprache setzten:

LANG=en_US.utf8

c’t Sonderheft: Linux – Server Praxis

Der Heise-Verlag hat ein neues c’t-Sonderheft zum Thema Linux-Server veröffentlicht. Ich hab mir selbiges gegönnt und will hier mal kurz meine Meinung kundtun.

Wer sich das Inhaltsverzeichniss anschaut, sieht dass die Themen breit gefächert sind. Vom Aufbau eines kleinen Home/Small-Buisiness Server über dessen Betrieb bis hin zur Wartung wird alles abgedeckt, was man sich so vorstellen kann. c’t üblich wird das ganze mit schrägen Tux-Grafiken begleitet.

Der Anspruch der Artikel ist irgendwo zwischen Anfänger und „Fortgeschrittener Benutzer“ angesiedelt. Artikel die richtig ins Detail gehen fehlen leider. Gerade bei Samba und NFS4 hätte ich mir mehr Background-Informationen, Performance-Analysen und Tunning-Tipps gewünscht.

Für Leute die sich einen HomeServer hochziehen wollen oder es gerade getan haben, ist die Zeitung ein echte Stütze. Für Leute die schon länger einen Server betreiben bzw schon ein „komplexes“ Netz betreiben, gibt es nur wenig Anregungen.