ubuntuusers.de

4. September 2010

uTorrent BitTorrent ClientµTorrent, zweifelsfrei der BitTorrent Client schlechthin, war bisher lediglich für Windows sowie MacOS verfügar, nun gesellt sich Linux ins Betriebssystemsportfolio.

µTorrent ist dank seiner ressourcenschonenden und schnellen Arbeitsweise der wohl meistgenutze Torrent Client überhaupt. Bisher fehlte Linux als unterstütztes Betriebssystem, auch wenn viele Anwender schon lange den µTorrent Client mittels Wine betrieben haben, wurde der Wunsch nach einer nativen Version immer lauter, bis er nun schliesslich von den Entwicklern erhört wurde.

µTorrent Server Linux Web UI

µTorrent Server Linux Web UI

Ab sofort steht eine Alpha Version des µTorrent Servers für Linux zum Download bereit. Die Alpha ist eine 32bit Binary für x86 Systeme. Getestet und offiziell als unterstützt genannt werden Distributionen wie Ubuntu ab 9.10, Debian ab Version 5, sowie Fedora ab Version 12 aufwärts. Weitere Distributionen die eine Kernelversion von mindestens 2.6.13 mit sich bringen sollten ebenfalls in der Lage sein den µTorrent Server zu betreiben, wurden jedoch noch nicht offiziell getestet.

Der µTorrent kann als Daemon ausgeführt werden und bringt eine Web UI mit, die nach erfolgtem Start des Server unter http://localhost:8080/gui/ erreichbar ist. Zur Erstanmeldung reicht es aus sich als Benutzer “admin” anzumelden, das Passwort ist leer, danach sollte man die Zugangsdaten im Einstellungsmenü ändern.

Die µTorrent Serverversion ist eine von zwei geplanten Versionen, die die Entwickler in der nächsten Zeit veröffentlichen wollen. Die zweite Version soll eine native GUI Variante werden, ähnlich der bekannten Torrent Clients unter Linux. Die Servervariante bietet einige Vorteile, die man nicht ausser Acht lassen sollte, so ist sie ressourcenschonender und kann von allen zugelassenen Rechner aus verwaltet werden. In der Standardkonfiguration ist der Zugriff über jede IP Adresse möglich, dies sollte man, wenn möglich, einschränken.

Eine Testverbindung mit Transdroid für Android, zum µTorrent Server Alpha auf Ubuntu 10.04, klappte reibungslos.

Der µTorrent Server Alpha kann über die offizielle µTorrent Webseite bezogen werden: Downloadlink µTorrent Server Alpha

Das Downloadpaket des µTorrent Servers kommt inklusive Anleitung und Web UI. Der Server kann mittels Aufruf der Binary “utserver” gestartet werden.

Quelle: BitTorrent Blog

© nodch.de 2004-2010
(Digital Fingerprint: c8852a572a3164bae81758859bb9f2b4)
Ein NAS mit einem RAID 5, einem Samba Server und Verschlüsselung auf Basis von Ubuntu wäre doch eine schöne Sache. Um das zu bewerkstelligen lädt man sich den Ubuntu Server unter http://www.ubuntu.com/server herunter, brennt ihn auf eine CD uns startet diese auf dem entsprechenden Rechner.

Dort wählt man dann Deutsch als Sprache aus und geht im Menü auf Ubuntu Server installieren. Nach einigen Fragen bezüglich der Tastatur- und Ländereinstellungen geht es dann weiter mit den Partionseinstellungen. An dieser Stelle erzeugen wir ein neues RAID 5. Dazu wählen wir als Partionsmethode manuell aus und gehen anschließend auf den Menüpunkt Software-RAID konfigurieren. Sollte es bereits Partionen geben so sollten diese vorher gelöscht werden. Sollte hierbei noch ein Software RAID eingerichtet sein, so muss dieses zuerst unter Software-RAID konfigurieren gelöscht werden (MD Gerät löschen).

Nachdem wir Software-RAID konfigurieren ausgewählt haben gehen wir auf MD Gerät erstellen und wählen dort RAID5 aus. Danach wird man nach der Anzahl der aktiven Geräte (sprich Festplatten) gefragt. Hier gibt man die Anzahl der Festplatten an welche man für das RAID verwenden will. Die Festplatten sollten dabei die gleiche Größe aufweisen (sonst wird die kleinste Festplatte als kleinster Nenner angesehen). Nach den aktiven Geräten kann man die Reservegeräte (Hot Spare) definieren und anschließend angeben welche Festplatten in das RAID genommen werden sollen.

Nachdem man das ganze bestätigt hat und die RAID Konfigurationsseite mittels Fertigstellen verlassen hat, definiert man noch den Einhängepunkt des RAID5 Gerätes (/) sowie das Dateisystem (ext4) und beendet die Partitionierung. Zusätzlich kann man noch eine Swap Partion anlegen, muss dies aber nicht tun (je nachdem wie viel Arbeitsspeicher in dem Gerät steckt).

Während der Installation wird man dann noch gefragt ob man Mail konfigurieren möchte. Dort wählt man nur lokal aus und fährt mit der Installation fort bis man seinen Nutzernamen und sein Passwort vergeben muss. Auf die Frage ob der persönliche Ordner verschlüsselt werden soll antwortet man mit Ja. Dann fährt man mit der Installation fort bis man gefragt wird ob man bestimmte Pakete vorinstallieren möchte. Hier wählt man OpenSSH server und bestätigt das ganze.

Nach der Installation erstellen wir mittels mkdir /home/seeseekey/share den Ordner in dem später unserer Daten liegen und installieren mittels:
sudo apt-get install mc htop samba swat
den Samba Server (sowie das Webinterface), htop und den Midnight Commander (letztere nur der Bequemlichkeit halber). Mittels
sudo smbpasswd -a seeseekey
erzeugen wir einen neuen Sambabenutzer. Dabei ist zu beachten das der betreffende Sambanutzer im System schon als Benutzer existieren muss. Am besten legt man solche Nutzer mittels
sudo adduser --no-create-home --disabled-login --shell /bin/false seeseekey
an. Diese Nutzer haben dann kein Homeverzeichnis und können sich auch nicht auf dem System einloggen. Nun müssen wir noch einige Dinge an den Dateirechten ändern damit Swat die Samba Config schreiben kann. Dies geschieht auf der Konsole mittels
sudo chown root:admin /etc/samba/smb.conf
sudo chmod 664 /etc/samba/smb.conf
Anschließend starten wir Swat mittels sudo /etc/init.d/openbsd-inetd restart neu. Danach können wir uns mit einem Webbrowser anmelden (http://"IP Adresse":901 z.B. 192.168.1.15:901). Als Nutzername und Passwort dient dabei der bei der Installation angelegte Benutzer.

die Swat Weboberfläche

Nachdem wir uns verbunden haben können wir unter Globals einige Dinge einstellen z.B. den Namen der Arbeitsgruppe (workgroup). Unter Shares legen wir eine Freigabe an. In diesem Beispiel nennen wir die Freigabe Daten und klicken auf erstellen. In dem sich öffnenden Optionen setzen wir folgende Parameter:
path -> /home/seeseekey/share/
admin users -> seeseekey
readyonly -> No
available -> Yes
und klicken anschließend auf Änderungen speichern.

Nun haben wir ein System welches ein RAID 5 kombiniert mit einem Sambaserver und einer Verschlüsselung bereitstellt. Wenn man den Server startet muss man den Nutzernamen und das Passwort eingeben, damit das entsprechende Nutzerverzeichnis in welchem die Freigabe liegt entschlüsselt wird. Das kann man natürlich auch per SSH machen, allerdings ist die Sitzung (und somit die SMB Freigabe) nur so lange verfügbar wie die SSH Verbindung steht. Eine Anmeldung direkt am NAS (es reicht ja wenn eine Tastatur angeschlossen ist) ist also vorzuziehen.

Ein kleiner Hinweis noch am Rande: Mittels cat /proc/mdstat kann man nach der Anmeldung Informationen über das RAID abfragen.

Weitere Informationen gibt es unter:
http://de.wikipedia.org/wiki/Network_Attached_Storage
http://wiki.ubuntuusers.de/Software-RAID
http://wiki.ubuntuusers.de/ecryptfs-utils
http://wiki.ubuntuusers.de/SAMBA
http://wiki.ubuntuusers.de/samba_server
http://wiki.ubuntuusers.de/Samba_Server_Swat

Ein NAS mit einem RAID 5, einem Samba Server und Verschlüsselung auf Basis von Ubuntu wäre doch eine schöne Sache. Um das zu bewerkstelligen lädt man sich den Ubuntu Server unter http://www.ubuntu.com/server herunter, brennt ihn auf eine CD uns startet diese auf dem entsprechenden Rechner.

Dort wählt man dann Deutsch als Sprache aus und geht im Menü auf Ubuntu Server installieren. Nach einigen Fragen bezüglich der Tastatur- und Ländereinstellungen geht es dann weiter mit den Partionseinstellungen. An dieser Stelle erzeugen wir ein neues RAID 5. Dazu wählen wir als Partionsmethode manuell aus und gehen anschließend auf den Menüpunkt Software-RAID konfigurieren. Sollte es bereits Partionen geben so sollten diese vorher gelöscht werden. Sollte hierbei noch ein Software RAID eingerichtet sein, so muss dieses zuerst unter Software-RAID konfigurieren gelöscht werden (MD Gerät löschen).

Nachdem wir Software-RAID konfigurieren ausgewählt haben gehen wir auf MD Gerät erstellen und wählen dort RAID5 aus. Danach wird man nach der Anzahl der aktiven Geräte (sprich Festplatten) gefragt. Hier gibt man die Anzahl der Festplatten an welche man für das RAID verwenden will. Die Festplatten sollten dabei die gleiche Größe aufweisen (sonst wird die kleinste Festplatte als kleinster Nenner angesehen). Nach den aktiven Geräten kann man die Reservegeräte (Hot Spare) definieren und anschließend angeben welche Festplatten in das RAID genommen werden sollen.

Nachdem man das ganze bestätigt hat und die RAID Konfigurationsseite mittels Fertigstellen verlassen hat, definiert man noch den Einhängepunkt des RAID5 Gerätes (/) sowie das Dateisystem (ext4) und beendet die Partitionierung. Zusätzlich kann man noch eine Swap Partion anlegen, muss dies aber nicht tun (je nachdem wie viel Arbeitsspeicher in dem Gerät steckt).

Während der Installation wird man dann noch gefragt ob man Mail konfigurieren möchte. Dort wählt man nur lokal aus und fährt mit der Installation fort bis man seinen Nutzernamen und sein Passwort vergeben muss. Auf die Frage ob der persönliche Ordner verschlüsselt werden soll antwortet man mit Ja. Dann fährt man mit der Installation fort bis man gefragt wird ob man bestimmte Pakete vorinstallieren möchte. Hier wählt man OpenSSH server und bestätigt das ganze.

Nach der Installation erstellen wir mittels mkdir /home/seeseekey/share den Ordner in dem später unserer Daten liegen und installieren mittels:

sudo apt-get install mc htop samba swat

den Samba Server (sowie das Webinterface), htop und den Midnight Commander (letztere nur der Bequemlichkeit halber). Mittels

sudo smbpasswd -a seeseekey

erzeugen wir einen neuen Sambabenutzer. Dabei ist zu beachten das der betreffende Sambanutzer im System schon als Benutzer existieren muss. Am besten legt man solche Nutzer mittels

sudo adduser –no-create-home –disabled-login –shell /bin/false seeseekey

an. Diese Nutzer haben dann kein Homeverzeichnis und können sich auch nicht auf dem System einloggen. Nun müssen wir noch einige Dinge an den Dateirechten ändern damit Swat die Samba Config schreiben kann. Dies geschieht auf der Konsole mittels

sudo chown root:admin /etc/samba/smb.conf
sudo chmod 664 /etc/samba/smb.conf

Anschließend starten wir Swat mittels sudo /etc/init.d/openbsd-inetd restart neu. Danach können wir uns mit einem Webbrowser anmelden (http://”IP Adresse”:901 z.B. 192.168.1.15:901). Als Nutzername und Passwort dient dabei der bei der Installation angelegte Benutzer.

Nachdem wir uns verbunden haben können wir unter Globals einige Dinge einstellen z.B. den Namen der Arbeitsgruppe (workgroup). Unter Shares legen wir eine Freigabe an. In diesem Beispiel nennen wir die Freigabe Daten und klicken auf erstellen. In dem sich öffnenden Optionen setzen wir folgende Parameter:

path -> /home/seeseekey/share/
admin users -> seeseekey
readyonly -> No
available -> Yes

und klicken anschließend auf Änderungen speichern.

Nun haben wir ein System welches ein RAID 5 kombiniert mit einem Sambaserver und einer Verschlüsselung bereitstellt. Wenn man den Server startet muss man den Nutzernamen und das Passwort eingeben, damit das entsprechende Nutzerverzeichnis in welchem die Freigabe liegt entschlüsselt wird. Das kann man natürlich auch per SSH machen, allerdings ist die Sitzung (und somit die SMB Freigabe) nur so lange verfügbar wie die SSH Verbindung steht. Eine Anmeldung direkt am NAS (es reicht ja wenn eine Tastatur angeschlossen ist) ist also vorzuziehen.

Ein kleiner Hinweis noch am Rande: Mittels cat /proc/mdstat kann man nach der Anmeldung Informationen über das RAID abfragen.

Weitere Informationen gibt es unter:
http://de.wikipedia.org/wiki/Network_Attached_Storage
http://wiki.ubuntuusers.de/Software-RAID
http://wiki.ubuntuusers.de/ecryptfs-utils
http://wiki.ubuntuusers.de/SAMBA
http://wiki.ubuntuusers.de/samba_server
http://wiki.ubuntuusers.de/Samba_Server_Swat

3. September 2010

Schnell, schneller, am schnellsten. So präsentiert sich der Chromium Browser auf meiner Kiste.

Ich war ja schon länger mit dem Feuerfuchs unterwegs und habe immer ein wenig andere Browser ausprobiert, aber so stabil und schnell wie der Chromium Browser hat mich bis jetzt noch keiner überzeugt. Selbst der schlanke Browser aus dem hohen Norden hat’s nicht geschaft.

Aber erst einmal alles der Reihe nach:

Angefangen hat meine Browser-Reise damals als ich auf einen Artikel aufmerksam wurde, der das neue Chromium von Google bekannt gab. Etwas holprig aber mit wenigen Kniffen hatte ich dann das Chromium auf meinem virtuellen Server zum laufen gebracht.  Das erste das mir entgegen gekommen war, das Login bei Google! Ohne Login ging nichts. Nun ja, nicht das was ich wollte.

Als ich dann wieder mit dem Feuerfuchs arbeitete und mit Ubuntu 10.04 mein neustes System nennen konnte, kamen die nächsten Probleme. Immer wieder war es vorgekommen, dass ich beim Surfen mit dem Feuerfuchs bei meiner Firewall Pobleme im Sinne von “zu vielen gleichzeitigen Verbindungen” erhielt und somit das Internet für 60 Sekunden nicht nutzen konnte. Nach langem suchen und schrauben musste ich feststellen das der Feuerfuchs diese Probleme produzierte. Das war der Moment sich wieder einmal nach einem anderen Browser umzusehen.

chromium-browser war mir dann in der Synaptic aufgefallen und ein Versuch wert. Ich war von Anfang an ziemlich begeistert von der Geschwindigkeit des Browsers und auch die Stabilität konnte sich sehen lassen. Am meisten war ich glücklich, dass meine Firewall nun auch keine Probleme mehr machte.

Jetzt ist der Chromium Browser mit der Version 5.0 erschienen und ich denke dass dieser nun einen weiteren Standart im Browserhimmel setzen wird. Die deutsche Sprachdatei kann man auch ganz einfach im Synaptic mit chromium-browser-l10n dazu installieren lassen. Als Abschluss kann man den Browser dann noch mit dem Acid Test laufen lassen, und siehe da, 100 Punkte.

Fazit: Der Chromium Browser ist mit der jetzigen Version 5.0 ein stabiler, schneller und zuverlässiger Browser. Bleibt nur noch ein kleiner Nebengeschmack, dass gewisse Applikationen vielleicht nach Hause telefonieren möchten.

PDF-Datei dieses Artikels erzeugen



Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Geschmäcker sind verschieden. Die einen fanden das neue violette Hintergrundbild ab Ubuntu 10.04 toll, die anderen sahen sich bei den Farbklecksen an Pickel erinnert.

Nun ja, bleibt man bei dem Vergleich, dann haben sich die Pickel bei Ubuntu 10.10 jetzt entzündet:

Wer dem Drang, Clearasil auf den Monitor zu kippen, widerstehen kann, findet ansonsten keine großartigen Neuerungen vor. Das war auch nicht zu erwarten, denn der große Design-Umbruch fand schließlich bereits im April bei der LTS-Vorgängerversion statt. So beschränken sich die jetzigen Modifizierungen nur auf kleinere Änderungen beim Design.

Die Schaltflächenknöpfe der Titelleisten sind flacher und weniger filigran geworden, sie erscheinen schlichter und wirken dadurch funktionaler. Beim Symbolsatz hat man vor allem die Navigationspfeile geliftet, weg vom Vorbild der dicken Gnome- oder Tango-Icons, hin zu einem schlankeren, hinweisschildähnlichen Design. Die Farbtöne sind hier dieselben geblieben.

Weiter verbessert hat man auch die Themes an sich, also die eigentlichen Elemente der Desktopoberfläche. Die ubuntueigenen Standard-Themes kommen nun noch etwas glanz- und effektvoller daher; sie sind noch ein Quentchen heller und symmetrischer geworden. In der Marketingabteilung würde man wohl von “freundlicher, luftiger, leichter” sprechen.

Von den bräunlich-beigen Tönen, die bei Ambiance aus Ubuntu 10.04 LTS z.B. noch auffällig bei den Auswahlfeldern oder Schaltflächen bemerkbar waren, hat man sich endgültig verabschiedet. Im Gegenzug kommt mehr Orange zum Einsatz, neben den Klecksen im neuen Desktop-Hintergrundbild etwa auch bei Markierungen oder beim Überfahren von Schaltflächen. Bei Ubuntu hat man daher den endgültigen Bruch mit der bisherigen Design-Philosophie der erdigen, naturnahen Farbtöne vollzogen.

Mit geändert hat sich dabei auch die Theme-Engine, die Themes Ambiance und Radiance aus Ubuntu 10.10 lassen sich daher nicht ohne Weiteres unter Ubuntu 10.04 LTS nutzen.

So, in den letzten Tagen entstand wieder ein frischer LessLinux Development-Build. Neu sind vor allem die Funktion, dass das ISO-Image nicht nur dank ISOhybrid auch auf einem USB-Stick eingesetzt werden kann, sondern dieser beim Start gleich wieder mit einem FAT-Dateisystem versehen wird. Neu ist auch ein pvops-tauglicher Kernel und einige kleinere Änderungen an den Bootscripten, womit sich LessLinux nun als Xen domU booten lässt.

Einige weitere Modifikationen wie Bootsplash mit fbsplash, die demnächst in einem kommerziellen Derivat sichtbar sein werden, sind noch nicht aktiv. Hier geht’s lang zum Blogpost:

http://blog.lesslinux.org/fresh-development-build-isohybrid-conversion-and-boot-on-xen/

Gestern ist ja bekanntlich die Beta-Version von Ubuntu 10.10 erschienen. Ich hatte eine Alpha-Version schon einmal kurzzeitig installiert, dort hatte ein Update was gegen ein genaueres Testen.

Deswegen komme ich jetzt erst dazu, das Notebook mal wieder frisch aufzusetzen und Ubuntu 10.10 mal zu installieren. Es gibt allerdings noch eine Reihe von “Known issues”, weswegen man die Beta nicht auf einem Produktivsystem installieren sollte. Hier sollte man wohl wirklich warten bis die finale Version von Maverick Meerkat erscheint.

Die Installation

Installiert habe ich via USB-Stick auf meinem Acer TravelMate. Nachdem ich in mehreren Versionen versucht habe ein ISO mit dem “Startmedienersteller” (USB-Creator) auf einen Stick zu schreiben funktionierte das mit dem Maverick-ISO erstaunlich gut. Auch wenn ich für gewöhnlich die Alternate-CD zum Installieren verwende habe ich heute mal die Desktop-CD verwendet. Der Installer hat sich optisch mal wieder ein bisschen verändert und schaut ziemlich gut aus. Es ist war eine ganze Weile her, dass ich den zuletzt gesehen habe, aber im Laufe der Versionen ist da recht viel gemacht worden.

Die Installation klappte problemlos und war erstaunlich schnell zuende. Ich habe zwar nicht auf die Uhr gesehen, aber mehr als 15 Minuten dürfte das ganze nicht gedauert haben. Während man noch seine Daten eingibt und das Passwort festlegt installiert sich Ubuntu schon, was zusätzlich dazu beiträgt, dass das ganze wesentlich schneller wirkt. Während der Installation kann man nun auch auswählen ob unfreie Software (Flash, mp3-Support, etc.) gleich mitinstalliert werden soll. Dies funktionierte in der Beta-Version allerdings noch nicht.

Software

Wie bei jeder Ubuntu-Version werden die enthaltenen Pakete auf den aktuellen Stand gebracht. GNOME kommt in Version 2.31, Kubuntu bietet KDE als 4.5 Release Candidate. Der Kernel arbeitet in Version 2.6.35. Als Browser ist nach wie vor Mozillas Firefox installiert und kommt in Version 3.6.9, OpenOffice.org kommt in Version 3.2.1. Außerdem ist mir aufgefallen, dass gdebi nicht mehr in der Standard-Installation enthalten ist. Ob das so bleibt weiß ich nicht, es kann aber daran liegen, dass das Programm im Moment einfach rein gar nicht funktioniert. Zumindest stürzte es bei mir, beim Versuch nautilus-dropbox zu installieren, mehrfach ab. Mit dpkg -i ließ sich die Dropbox dann allerdings auch unter Maverick installieren.

Neue Features

Die Ubuntu Netbook Edition kommt mit einer neuen Oberfläche mit dem Namen Unity. Das hatte ich vor ein paar Tagen mal zum Testen mal unter Lucid installiert. Dort scheint noch relativ viel Arbeit vor den Entwicklern zu liegen bis Ubuntu 10.10 erscheint. Darüber hinaus wurde am Sound Menü von Ubuntu ein bisschen geschraubt. Das Software Center hat nun einen Hintergrund bekommen und es gibt einen neuen Bereich für bezahlte Programme – “Paid Apps”. Die Oberfläche für Synaptic wurde auch leicht verändert. Den Button zum Suchen findet man nun auf der rechten Seite. Da ja immer so viel von den Startzeiten geredet wird: auf meinem Travelmate dauerte der Systemstart laut BootChart ziemlich genau 30 Sekunden.

Optik

Optisch hat sich wieder ein wenig geändert. Das Theme wurde ein bisschen überarbeitet und farblich verändert. Außerdem wird derzeit ein neues Wallpaper installiert, was wohl mehr oder weniger das alte ist, nur mit ein paar orangenen Klecksen mitten drin. Dies soll aber vor dem Release am 10.10.2010 noch ein mal geändert werden.

Fazit

Ubuntu 10.10 hat hier und da noch den einen oder anderen Fehler. Etwas anderes kann man von einer Beta-Version auch nicht verlangen. Dennoch läuft das System insgesamt schon recht stabil. Ich werde Maverick auf jeden Fall jetzt mal ein bisschen auf dem Laptop laufen lassen und noch das eine oder andere ausprobieren. Die Neuerungen und Software-Updates sind schon ein Grund zum Aktualisieren auf die neue Version, aber so ein richtiges “wow”-Feature ist wie es aussieht nicht zu erwarten. Vielleicht habe ich es auch einfach nur noch nicht entdeckt? Wer gerne längeren Support und Sicherheitsupdates möchte sollte sich aber dennoch überlegen, ob er nicht lieber bei Lucid (Ubuntu 10.04 LTS) bleiben möchte.

Wie ich gerade erfahren musste, löschen Mitglieder aus dem ubuntuusers.de Planeten-Teams meine Beiträge aus dem Planeten, ohne die Leser des Planeten und vor allen den Autor des Blogs darüber zu informieren. Der Grund für die Löschung war/ist ein Link zum Flattr-Account meines Blogs in der Fußzeile der Beitrages. In einem Beitrag auf dem Ikhaya wurde diese Änderung in den Bedingungen des Planeten präsentiert, jedoch wurden die Blogger des Planeten weder in die Entscheidungsfindung einbezogen, noch wurde das Ergebnis an die Blogger direkt kommuniziert.

Diese Löschung nehme ich nicht hin! Es mag arrogant klingen, doch nicht ubuntuusers.de füllt den Planeten mit Leben, sondern die Blogger die tagtäglich Inhalte produzieren und diese Inhalte dem Planet überlassen. Von daher ist es ein Affront gegenüber den Autoren, dass über ihre Köpfe hinweg entschieden wird und diese Entscheidung dann nicht einmal kommuniziert wird [UPDATE: Ich erfahre gerade über IRC, dass angeblich eine Mail bzgl. der Löschungen zu mir geschickt wurde, es kam aber nie Eine an. Gut dass man erst einmal löscht und dann fragt, es ist ja Gefahr im Verzug.]

Ich weiß, dass viele Leser erwarten meine Artikel im Planeten von ubuntuusers.de vorzufinden und deshalb Linux Und Ich nur zum Kommentieren besuchen, von daher ist die Löschung nicht nur ärgerlich für mich, sondern vielmehr auch für die Leser des Planeten. Ich möchte mich drauf verlassen können, dass Beiträge die für den Planet bestimmt sind, auch dort erscheinen.

Aus einem Gespräch mit dem Teamleiter des Ikhaya-Teams war zu entnehmen, dass es bei dieser Position auch keinerlei Gesprächsbereitschaft gibt. Aus diesem Grunde werden von heute an Beiträge von Linux und Ich nicht mehr im Planeten von ubuntuusers.de erscheinen. Es ist schade für euch liebe Leser, doch Ihr müsst von nun an entweder auf planet.debianforum.de ausweichen, alternativ den RSS-Feed zum Blog abonnieren oder öfter mal bei mir vorbeisehen.

Ich will mich noch bei allen alten Weggefährten aus den guten alten Zeiten bei ubuntuusers.de bedanken, es hatte immer Spaß gemacht ubuntuusers.de aktiv mitzugestalten und das Portal zu dem zu machen, was es heute ist. Doch diese Zeiten sind wohl leider endgültig vorbei. Von daher, Sayonara, au re voir, goodby ubuntuuers.de, auf wiederlesen bei LinuxUndIch.de, @ChrisZwitschert oder @Chrissss.

Liebe Grüße
Christoph (Chrissss)

Goodby Planet ubuntuusers.de ist ein Beitrag von Linux und Ich. Der Beitrag ist lizenziert unter CC BY-SA 3.0 (German). Weitere Informationen und News: Twitter || Identi.ca || Flattr

Gestern ist die erste Beta für Ubuntu 10.10 erschienen. Wie immer hat sich viel getan.

Speziell die Änderungen im Software-Center und an der Installation fallen auf.

Das Software-Center wurde optisch überholt und ermöglicht dir jetzt kommerzielle Software direkt zu kaufen in Ubuntu zu kaufen.

Die Installation wurde optisch aufgehübscht, beschleunigt und verkürzt.

Schade, dass man die Verbesserungen nicht einfach in Ubuntu 10.04 übernehmen kann. 

Downloads bekommst du hier: Ubuntu 10.10 Beta

Wie sieht es bei dir aus? Bleibst du bei Ubuntu 10.04 oder installierst du 10.10 auf deinem Laptop?

Via OMG! Ubuntu

2. September 2010

Die Beta von Ubuntu 10.10 Maverick Meerkat wurde freigegeben. Theme überarbeitet, das Software-Center weiter ausgebaut und neues Installationskonzept. Die Final Version von Maverick ist für den 10. Oktober 2010 angesetzt.

Das Theme

Das Ubuntu Standardtheme “Ambiance und Radiance” wurden überarbeitet. Weichere Kanten, neuer Statusbarverlauf und viele weitere Kleinigkeiten wurden umgesetzt. Auch dem dazu gehörigen Icon-Theme “Humanity” wurde ein leichtes facelifting spendiert.

Die Wallpaper

Die neue Wallpapersammlung ist nun vorhanden. Ganze 16 verschiedene “Gemeinschaftswallpaper” und das Ubuntu-Standardwallpaper stehen zur Auswahl. Diese können hier heruntergeladen werden.

Das Soundapplet

Das Soundapplet wurde mit einigen neuen Features bestückt, wie dem Anzeigen des zurzeit spielenden Liedes incl. Covers und dem Steuern des aktiven Mediaplayers via Schnellfunktionstasten.

Das Software-Center

Das Software-Center hat viele Funktionen sowie Designverbesserunegn hinzubekommen.

Funktionen

  • Für Programme die etwas kosten, wurde in der Seitenleiste ein Extraeintrag hinzugefügt, über den diese leichter gefiltert werden können.
  • Nach einer  Installation  wird der Pfad zum Aufrufen des Programmes angezeigt (z.B. Anwendungen-> Unterhaltungsmedien-> Banshee).
  • Erweiterungen für Anwendungen wie Banshee, werden direkt unter der Programmbeschreibung angezeigt

Design

  • Ein Hintergrundbild
  • Neue Farbakzente
  • Layoutverbesserung

Die Installation

Da Ubuntu für jederman leicht zu installieren und bedienen sein soll, wurde ein neues Konzept für die Installation von Ubuntu entwickelt, so kann nun eingestellt werden, dass bei der Installation von UBuntu auch Updates geholt und der MP3 Codec installiert wird. Mehr dazu kann im Canoncial Blog nachgelesne werden.

Download Ubuntu 10.10 Beta

Diese Ubuntu Version ist nicht für den Produktiveneinsatz gedacht, da es immer noch zu massiven Fehlern kommen kann.

Auf Grund einer unsauberen Prorammiereung, war der VLC Media-Player für eine Sicherheitslücke anfällig. Der Fehler wurde behoben und darauf hin, haben die Entwickler eine neue Version (1.1.4 The Lugagge) herausgebracht.

Was ist neu in VLC 1.1.4

  • Windows DLL-Problem behoben
  • Ordnerproblem unter Windows behoben
  • Übersetzung Systemweit verbessert

Installation unter Ubuntu 10.04:

Da die c-korn/vlc Paketquelle gelöscht wurde, müssen sich Ubuntu-Benutzer eine neue Paketquelle suchen um VLC in der aktuellen Version unter Lucid zu verwenden.


Ein Terminal öffnen, und folgende  Befehle ausführen:

sudo add-apt-repository ppa:ferramroberto/vlc
sudo apt-get update
sudo apt-get install vlc mozilla-plugin-vlc

(Paketquelle gefunden via rootz)

Unser DVB-Receiver nimmt die Aufnahmen als trp-Dateien auf. Das sind ganz ein ganz normaler Transportstrom, den man mit ProjectX weiter verarbeiten kann. Wenn ich noch eine einfache Möglichkeit finde, H.264-Streams zu schneiden, würde ich vermehrt HD-Aufnahmen aufnehmen können... Leider kann ProjectX nix damit anfangen.

1. September 2010

Für viele war die diesjährige FrOSCon bereits der fünfte Besuch an der Fachhochschule Bonn-Rhein-Sieg, doch Felix und ich machten uns erst zum zweiten Mal auf den Weg, um der zweitägigen Open Source-Konferenz als CAcert-Assurer und Besucher beizuwohnen. Am Abend vorher hatte sich nun noch ein Helfer-Job für uns ergeben, so dass wir uns am Samstag Morgen gleich in einer Dreifach-Rolle und grünen T-Shirts wiederfanden.

Freitag, 20.8.2010

Nach einer halben gemeinsamen Urlaubswoche im verregneten Schwarzwald kamen Felix und ich dann im – ebenfalls verregneten – Bonn an. Das Hostel, in dem wir auch im letzten Jahr untergebracht waren, wollte uns erst zum regulären Check-In ab 17 Uhr herein lassen, und so machten wir uns erst einmal auf den Weg, um uns beim örtlichen McDonald’s mit etwas Essbarem zu versorgen. Zum Glück ergab sich daraus noch eine recht spannende Exploration der Innenstadt, was unserer immensen Langeweile entgegenwirkte.

Am Abend hatte ich dann noch ein paar Vorbereitungen für meine LPIC-2-Prüfung zu treffen.

Samstag, 21.8.2010

Für den einen oder anderen von uns stellt frühes Aufstehen bekanntermaßen eine ganz spezielle Herausforderung dar, doch trotzdem machten Felix und ich uns schon gegen 8 Uhr mit dem Fahrrad auf den 10km langen Weg zur Fachhochschule in St. Augustin. Nachdem wir unsere Event-Bags und Besucher-Badges erhalten hatten, wurden wir im Helfer-Office mit T-Shirts und Aufgaben versorgt.

Die Kollegen von CAcert stürzten uns natürlich sofort ins communitytypische Chaos, als die Frage aufkam, wo denn nun unsere Aussteller-Badges zu finden seien (Badge Nr. 3, für den unaufmerksamen Leser ;-) ). Doch auch dieses Problem ließ sich lösen (die sidux-Jungs hatten sich das Bündel unter den Nagel gerissen), und so nahmen wir unsere Rolle als Otto-Normal-Besucher ein und verschafften uns einen Überblick über die Aussteller.

Dass die FrOSCon-Organisatoren wie auch im letzten Jahr ein buntes und breit gefächertes Repertoir an Ausstellern zustande bringen würden, war wohl zu erwarten, doch dieses Jahr warteten sie mit einem besonderen Gimmick auf: Google Inc. höchstselbst fand den Weg nach St. Augustin und stand Interessierten Rede und Antwort. Natürlich gab es hier auch nette Merchandising-Produkte, von T-Shirts über (übrigens sehr nervige) Anstecknadeln und Hologramm-Schreibblöcke bis hin zu einem USB-Solarladegerät, das unter allen Teilnehmern eines Quizzes verlost wurde. Die Google-Jungs (und Mädels) scheinen also nicht nur online für bunte und aufwändigen Content zu stehen, sondern auch einiges für geekige Werbeartikel übrig zu haben. Dass mich das erneut positiv von dem kalifornischen Unternehmen überzeugt, dürfte die meisten Leser nicht weiter wundern; ebenso wenig, dass zumindest der nervige Google-Pin Felix in Angst und Schrecken versetzte. Schließlich wusste er um meinen Hang zum digitalen Kitsch und die Auswirkungen, die dies auf den Grad seiner regelmäßigen nervigen Belastung haben wird ;) .

Zur Mittagszeit rief Ulrich zum CAcert Support MiniTOP, meinem ersten offiziellen Meeting in der neuen Rolle als Support Engineer. Auch mein Job als Co-Auditor wurde hier manifestiert. Spätestens wenn meine E-Mail-Signatur nicht mehr in das Eingabefeld des Thunderbirds passt, soltle ich aufhören, neue Ämter bei diesem verein anzunehmen ;) .

Im Laufe des Tages fanden natürlich auch meine beiden diesjährigen LPI-Prüfungen (201 und 202) auf dem Weg zur LPIC-2-Zertifizierung statt. An dieser Stelel bedanke ich mich noch einmal ganz herzlich beim Förderverein des Leibniz-Gymnasium Remscheid für das Sponsoring dieser Prüfungen. Bei beiden Prfungen konnte ich 90% der Fragen beantworten und bin sehr zuversichtlich, in ein paar Tagen das Zertifikat als Intermediate Level Administrator im Briefkasten zu finden.

Um den sozialen Aspekt solcher Konferenzen nicht zu vergessen, fand abends im Anschluss an den ersten Konferenztag (und meine Aufsichts-Schicht an der Kinder-Hüpfburg) das Social Event in Form einer großen Grillparty statt, bei der Felix und ich mit einigen anderen Helfern auf der richtigen Seite des Grills eingeteilt waren ;) . Es gab alles von Steaks und Würstchen bis hin zu vegetarischen Grill-Objekten (Grillkäse ist gar nicht so komisch, wie er klingt !), und auch hier zeigte sich das enorme Organisationstalent der FrOSCon-Crew in einer absolut guten Versorgung mit allem, was dazu gehört.

Da wir noch einen weiten Weg zum Hostel nach Bonn vor uns hatten und beide recht müde waren, verpassten wir leider den Anschnitt des FrOSCon-Geburtstagskuchens. Stattdessen verirrten wir uns desnachts noch gehörig in den Straßen der Bonner Vororte, bis Felix (dessen Orientierungssinn in dieser Nacht übrigens auch nicht von dem des bei ihm so beliebten “blinden Chinesens” entfernt war) die richtige Rheinbrücke wiederfand.

Sonntag, 22.8.2010

Helfer-Jobs halten fit – denn dass Felix eines mogens ungeduldig auf mich warten würde, hätte ich in meinen kühnsten Träumen nicht erwartet. Schon vor 9 Uhr nahmen wir den Helfer-Eingang der zum Messegelände umfunktionierten Fachhochschule und bekamen gleich unsere ersten Jobs des Tages (nebst frisch gewaschenem Helfer-Shirt). Felix durfte diTageskasse hüten, während ich den Netzwerkproblemen der Mensa (des großen Stände-Bereichs) hinterher telefonierte und den CAcert-Stand für die heutige Runde von Assurances vorbereitete.

Heute erhielt ich beim Mittagessen meine persönliche CAcert-Support-Einführung von Joost. Einfach unglaublich, mit was für Quark man da belästigt wird. Interessiert es mich wirklich, ob Netscape 3 im Jahr 2010 noch korrekt mit CAcert funktioniert? Und ist das überhaupt meine Aufgabe? Ebenfalls spannend wurde es dann bei zwei weiteren co-audited Assurances, bei denen sich wieder einmal herausstellte, dass die Privacy Policy von so gut wie keinem Assurer wirklich verstanden wurde.

Um 17 Uhr besuchte ich dann mit Felix meinen ersten (und einzigen) Vortrag an diesem FrOSCon-Wochenende, nämlich einen Talk über GNOME 3. Auch wenn sich im letzten Jahr viel getan hat, bin ich von den Neuerungen noch immer nicht überzeugt und kann mich mit der Idee der GNOME-Shell in keinster Weise anfreunden. Zum Glück haben sich die Entwickler gerade noch rechtzeitig gegen ein Release im September entschieden und die Entwicklungsphase um weitere 6 Monate verlängert.

Danach begann das allgemeine Abbauen. Schließlich musten die Mitglieder der FH ihr Lehrgebäude am Montag morgen wieder in dem Zustand vorfinden, in dem sie es der FrOSCon-Crew übergeben hatten. Teilweise gab es von diesem Zustand sogar eine recht brauchbare Dokumentation, nur an der Tischordnung der Mensa scheiterte es (wie wohl jedes Jahr) etwas. Es wurde zwar nach den Erfahrungen im letzten Jahr ein Plan angefertigt, dieser ließ sich allerdings nirgendwo mehr finden.

Gegen 21 Uhr war alles fertig und Felix und ich um einige Kenntnisse über die “Backstage-Area” der Konferenz reicher. Besonders gerne hätte ich das Equipment der Video-Crew eingepackt, doch wäre mein Fahrrad damit bestimmt etwas überfordert gewesen ;)

Und heute Abend navigierte uns Felix auch fachgerecht zum Hostel zurück, während ich (natürlich) überhaupt nicht wusste, was Sache ist ;)

Fazit

Fast hätte ich jetzt einen Satz gebracht, der mit “Wie jedes Jahr …” beginnt. Doch für Felix und mich war es ja erst der zweite Besuch der FrOSCon. Und trotzdem: Von allen Konferenzen und Messen, denen ich in diesem Bereich bisher beigewohnt habe, ist und bleibt die FrOSCon die am besten organisierteste und freundlichste von allen. Nicht nur wegen der unverschämt günstigen Eintrittspreise, die von einem ganz besonderen Händchen der Crew für Sponsoren zeugen, sondern wegen der Offenheit, die sich besonders im gegensatz zu Veranstaltungen des CCC nicht auf die Themen der Vorträge sondern auch auf die gesamte Oganisation der Veranstaltung beschränken.

Auch im nächsten Jahr werden wir definitiv als Helfer dabei sein – und trotzdem werde ich brav meien Spende verrichten, um das Konzept der Crew weiterhin zu unterstützen!

Weitere Fotos findet ihr auf Flickr.

Impressum und Lizenz: http://www.naturalnik.de/wordpress/impressum/

Share

flattr this!

Twitter hat vor einiger Zeit die User Authentifizierung über die API umgestellt. Dabei soll seit längerem nun die OAuth Methode benutzt werden. Die bisherige Basis Authentifizierung ist heute ausgelaufen und von Twitter deaktiviert worden, dies bedeutet nun also automatisch, dass alle Client – Programme, die nur die alte Methode unterstützen, seit heute nicht mehr funktionieren. Genau dies ist bei Gwibber in der aktuellen stabilen Version sowohl unter Ubuntu Lucid Lynx 10.04 als auch unter Maverick Meerkat 10.10 der Fall. Eine Version von Gwibber mit Unterstützung für OAuth existiert bereits, hat aber noch nicht in die stable Repositorys der Distributionen Einzug gehalten.

Glücklicherweise wurde ein offizielles Repository unter Ubuntu bereitgestellt, das die neuere Version beinhaltet. Dies ist aber bisher nur für Testzwecke bestimmt. Trotz allem funktioniert es bei mir und anscheinend auch vielen anderen wunderbar, aber wie immer gilt: Verwendung auf eigene Gefahr!

Um Gwibber mit Twitter wieder zum Laufen zu bringen, müsst ihr folgende Befehle in euer Terminal eingeben:

sudo add-apt-repository ppa:ubuntu-desktop/ppa
sudo apt-get update && sudo apt-get upgrade

Anschließend muss Gwibber einmal beendet und neu gestartet werden, dies könnt ihr entweder über die GUI machen, indem ihr im Menü Gwibber –> Beenden klickt und anschließend Gwibber wieder startet oder direkt im Terminal.

gwibber-service restart

Nun muss man seine angelegten Twitter Konten noch neu authentifizieren, dazu geht man in Gwibber auf Bearbeiten–>Konten, wählt das entsprechende Konto aus und klickt auf  den großen Button Berechtigen. Nun öffnet sich eine Twitter Seite auf der man seine Zugangsdaten eingibt und bestätigt. Wenn dies geklappt hat, darf man nicht vergessen auf Hinzufügen und Speichern zu klicken.

Nun sollten sich die Twitter Konten wieder automatisch aktualisieren und alles funktionieren. Man kann nun das zuvor hinzugefügte Repository wieder entfernen, damit man nicht von allen Programmen die Testversionen nutzt. Wer ein halbwegs aktuelles System hat, bekommt wohl momentan auch fast nur Gwibber ausgeliefert.

Ich finde es immer wieder schade, dass solche Aktualisierungen erst mit Druck vollzogen werden, wenn es eigentlich schon zu spät ist. Die Änderung in der Twitter API ist seit Monaten bekannt und Gwibber hat dafür auch Lösungen, leider eben wurde dies nicht in Ubuntu rechtzeitig aufgenommen! Ein ähnliches Problem gab es vor einigen Wochen auch schon mit Liferea!

Die Schritte seht ihr hier nochmal in den Bildern.

gwibber-oauth-1 gwibber-oauth-2 gwibber-oauth-3 gwibber-oauth-4
[via Ubuntu Desktop Mailinglist und The Fridge]

flattr this!

Nach vier Jahren ist es mal wieder Zeit für ein kleines Tutorial zur Installation von Ubuntu-domUs via debootstrap. Dank Aufnahme der pvops-DomU in den Vanilla-Kernel bringt Ubuntu einen Kernel mit, der lediglich kleine Anpassungen am Initramfs benötigt, um sauber auf einem aktuellen Xen 4.0 zu starten.

Installation von Debootstrap

Zuerst muss debootstrap vorhanden sein, am einfachsten natürlich mit apt-get install debootstrap. Unter Ubuntu kann mit debootstrap auch die Folgeversion installiert werden. Debian-User können das Ubuntu-Debootstrap direkt von http://archive.ubuntu.com/ubuntu/pool/main/d/debootstrap/ herunterladen und mit dpkg -i installieren. Nutzer von RPM-Distributionen sollten ein Konvertierungstool installieren oder Debootstrap direkt aus dem .tar.gz installieren.

Vorbereitung eines Images

Für Xen DomUs haben Sie die Möglichkeit, physikalische Festplatten oder deren Partitionen zu nutzen oder Festplattenimages zu verwenden. Bei den Images wiederum gibt es zwei Möglichkeiten: Tap-Disks, die wachsen können und beispielsweise VMware VMDK-Format unterstützen oder “Plain-Images”, die als Loopback-Device gemountet werden können. Ich empfehle bei Testkonfigurationen grundsätzlich und bei Produktivsystemen für die Systempartitionen Images von Partitionen. Die Gründe:

  • Im Gegensatz zu partitionierten Festplattenimages kann ein Partitionsimage ohne Verrenkungen vergrößert werden
  • Ein Mounten ist simpel mit mount -o loop ... möglich, es muss kein Offset errechnet und angegeben werden
  • Im Gegensatz zu VMDK-Images benötigt der Mount auf einer Xen-losen Maschine keine zusätzlichen Werkzeuge

Images erstelle ich als Sparse-Images, das geht schnell und spart Plattenplatz, hat aber bei Maschinen mit vielen Xen-Instanzen deutlich spürbare Einbußen durch doppelte Fragmentierung zur Folge. Zunächst entsteht ein Image für die Systempartition. Da ich gerne auch Kernel in der Xen-Instanz baue, hier 8GB groß, das Swap-Image bekommt ein Gigabyte:

dd if=/dev/zero bs=$((1024**2)) count=1 seek=8191 of=xvda1.img
dd if=/dev/zero bs=$((1024**2)) count=1 seek=1023 of=swap.img

Als nächstes entsteht eine Swap-Signatur und ein Dateisystem auf dem Image xvda1.img. Das Dateisystem mounte ich gleich auf einen noch zu erstellenden Mountpoint /tmp/minibuntu:

mkswap -f swap.img
freeloop=` losetup -f `
losetup $freeloop xvda1.img
echo "loopdevice is $freeloop"
mkfs.ext3 $freeloop
mkdir /tmp/minibuntu
mount $freeloop /tmp/minibuntu

Installation des Basissystems

Die Installation des Basissystems geht innerhalb weniger Minuten mit dem Befehl debootstrap. Auf einem 64-Bit Hostsystem haben Sie die Wahl, 32- oder 64-Bit-Gäste zu installieren. Bei Gästen, die keine allzu große Prozessgröße erwarten lassen, sind 32-Bit-Gäste oft einen Tick flotter und kompakter:

debootstrap --arch i386 lucid /tmp/minibuntu http://archive.ubuntu.com/ubuntu

oder

debootstrap --arch amd64 lucid /tmp/minibuntu http://archive.ubuntu.com/ubuntu

Das so installierte Ubuntu würde sich mit dem Hostkernel schon booten, darüber hinaus jedoch kaum nutzen lassen. Setzen wir einige Einstellungen:

vim /tmp/minibuntu/etc/default/locale
# BEGIN /etc/default/locale
LANG="POSIX"
# oder
# LANG="de_DE.UTF-8"
# END /etc/default/locale
vim /tmp/minibuntu/etc/network/interfaces
# BEGIN /etc/network/interfaces
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet dhcp
# END /etc/network/interfaces
echo '127.0.0.1 localhost' > /tmp/minibuntu/etc/hosts 
echo 'lucid-domU.test' > /tmp/minibuntu/etc/hostname

Auch eine vollständige /etc/apt/sources.list wird benötigt:

vim /tmp/minibuntu/etc/apt/sources.list
# BEGIN /etc/apt/sources.list
deb http://de.archive.ubuntu.com/ubuntu/ lucid main restricted
deb-src http://de.archive.ubuntu.com/ubuntu/ lucid main restricted
deb http://de.archive.ubuntu.com/ubuntu/ lucid-updates main restricted
deb-src http://de.archive.ubuntu.com/ubuntu/ lucid-updates main restricted
deb http://de.archive.ubuntu.com/ubuntu/ lucid universe
deb-src http://de.archive.ubuntu.com/ubuntu/ lucid universe
deb http://de.archive.ubuntu.com/ubuntu/ lucid-updates universe
deb-src http://de.archive.ubuntu.com/ubuntu/ lucid-updates universe
deb http://de.archive.ubuntu.com/ubuntu/ lucid multiverse
deb-src http://de.archive.ubuntu.com/ubuntu/ lucid multiverse
deb http://de.archive.ubuntu.com/ubuntu/ lucid-updates multiverse
deb-src http://de.archive.ubuntu.com/ubuntu/ lucid-updates multiverse
deb http://security.ubuntu.com/ubuntu lucid-security main restricted
deb-src http://security.ubuntu.com/ubuntu lucid-security main restricted
deb http://security.ubuntu.com/ubuntu lucid-security universe
deb-src http://security.ubuntu.com/ubuntu lucid-security universe
deb http://security.ubuntu.com/ubuntu lucid-security multiverse
deb-src http://security.ubuntu.com/ubuntu lucid-security multiverse
# END /etc/apt/sources.list

Ohne /etc/fstab geht wenig im domU-System, die Platten heissen nicht mehr wie bei den alten dom0- und domU-Kerneln /dev/sda, sondern /dev/xvda:

vim /tmp/minibuntu/etc/fstab
# BEGIN /etc/fstab
proc /proc proc defaults 0 0
/dev/xvda1 / ext3 defaults 0 1
/dev/xvda2 none swap sw 0 0  
# END /etc/fstab

Eine Konsole für Xen. Xen nutzt /dev/hvc0 als Systemkonsole, diese muss noch mit einem getty versehen werden. Das erledigen Sie durch Kopieren der Definition von tty1 und entsprechende Anpassungen:

cp /tmp/minibuntu/etc/init/{tty1,hvc0}.conf
sed -i 's/tty1/hvc0/g' /tmp/minibuntu/etc/init/hvc0.conf

Chroot, Passwort und Kernel

Zum Abschluss der Installation und der Nachinstallation von Software müssen Sie per chroot in das frisch installierte Ubuntu wechseln. Zunächst benötigen Sie dafür einige spezielle Dateisysteme:

mount -t proc none /tmp/minibuntu/proc
mount -t devpts none /tmp/minibuntu/dev/pts 

Wenn Host und Gast die gleiche Architektur nutzen, klappt der Chroot klassisch:

LANG=C chroot /tmp/minibuntu /bin/bash

Ist der Host dagegen 64 bittig und der Gast 32 bittig, ist setarch zu verwenden:

LANG=C setarch i386 chroot /tmp/minibuntu /bin/bash

Zunächst aktivieren wir Shadow-Passwörter und setzen ein Root-Passwort:

shadowconfig on 
passwd

Auf 32-Bit-Gästen muss zwingend ein PAE-Kernel installiert werden. Nur dieser enthält Unterstützung für pvops. Kernel ohne PAE laufen nur auf dem “nackten Metall”. Bei 64 Bit sollten alle Kernel pvops unterstützen:

apt-get install linux-image-generic-pae

Da ein Bootloader bei unserer Konfiguration keinen Sinn macht, sind entsprechende Nachfragen mit [No] zu beantworten.

Aufbau des Initramfs

Im Gegensatz zu gängigen Dateisystemtreibern enthält Ubuntus Kernel die Frontend-Treiber für Blockdevices und das Netz nur als Module. Diese sind entsprechend zu Initramfs-Konfiguration hinzuzufügen:

vim.tiny /etc/initramfs-tools/initramfs.conf
MODULES=list

Diese Liste ist entsprechend anzupassen:

vim.tiny /etc/initramfs-tools/modules
# BEGIN /etc/initramfs-tools/modules
xen-kbdfront
xen-netfront
xen-blkfront
# END /etc/initramfs-tools/modules

Und anschließend wird das Initramfs neu aufgebaut:

mkinitramfs -o /boot/initrd.img-2.6.32-24-generic-pae 2.6.32-24-generic-pae

Verlassen Sie nun den Chroot wieder und unmounten Sie die beiden speziellen Dateisysteme.

exit
umount /tmp/minibuntu/proc
umount /tmp/minibuntu/dev/pts

Kopieren der Kernel, Aufbau der domU-Konfiguration

Kopieren Sie nun Kernel und Initramfs von /tmp/minibuntu/boot in das Verzeichnis, welches Festplattenimages und später die Konfiguration enthält. Erstellen Sie dann eine Datei ubuntu.cfg mit folgendem Inhalt (selbstverständlich ist der Pfad zum Installationsverzeichnis anzupassen und Kernel sowie Initramfs umzubenennen oder zu verlinken):

kernel = "/usr/local/xendomains/lucid_test/vmlinuz"
ramdisk = "/usr/local/xendomains/lucid_test/initrd.gz"
memory = 512
name = "lucid-test"
vif = [ 'mac=00:16:00:00:42:23' ]
disk = [ 'file:/usr/local/xendomains/lucid_test/xvda1.img,xvda1,w',
         'file:/usr/local/xendomains/lucid_test/swap.img,xvda2,w' ]
root = '/dev/xvda1 ro'
extra = 'console=hvc0'

Jetzt nicht vergessen, das Loopback-Device zu unmounten und freizugeben:

umount /tmp/minibuntu
umount $freeloop
losetup -d $freeloop

Dann kann auch die neue domU gestartet werden:

xm create -c ubuntu.cfg

Melden Sie sich in der Konsole der domU an und installieren Sie die Xen-Version der C-Bibliothek, sowie OpenSSH nach:

apt-get install ssh libc6-xen

Beim nächsten Mal kann dann die Domain ohne -c gestartet und per SSH zugegriffen werden. Soll die virtuelle Festplatte vergrößert werden, kann dies nach dem Herunterfahren mit dd erfolgen:

dd if=/dev/zero bs=$((1024**2)) count=1 seek=16383 of=xvda1.img
freeloop=` losetup -f`
losetup $freeloop xvda1.img
fsck.ext3 -f $freeloop
resize2fs $freeloop
losetup -d $freeloop

That’s it! Soll die domU automatisch mit dem Xend des Hostes starten, die .cfg in /etc/xen/auto verlinken und darauf achten, dass das Startscript /etc/init.d/xendomains beim Systemstart unmittelbar nach xend gestartet wird. Die so erstellte Domain ist prinzipiell portabel, man sollte sich allerdings keine allzugroßen Hoffnungen auf einen Boot unter alten Xen-Versionen (vor 3.4) machen. Sind noch alte dom0s vorhanden, schafft möglicherweise Ubuntus ec2-Kernel für Amazons Elastic Computing Cloud Abhilfe.

Als ich die Übersicht über die Home Theater PC geschrieben habe, habe ich auch über GeeXboX 2.0 und die Entwicklung Enna berichtet. Enna setzt auf die EFL (Enlightenment Foundations Libraries) vom Enlightenment Projekt. Über den Windowmanager für den diese Bibliotheken eigentlich entwickelt werden, habe ich vor langer Zeit einmal geschrieben, dass war Anfang 2007. Damals war E17 wie der Enlightenment-Desktop auch kurz genannt wird relativ frisch, E17 ist allerdings die in der Entwicklung befindliche Version dieses Desktop Enviroment. Mit den EFL soll ein flexibler und dennoch mächtiger als auch einfach zu verwendenden Satz von Werkzeugen geschaffen werden. Die Bibliotheken werden portabel und optimiert gehalten, damit sie sogar auf Geräten wie PDAs oder ähnlichem funktionieren.
Kurz nach dem vor rund 3 Jahren ein kurzer E17-Boom herrschte gab es natürlich auch eine ebuntu-Distribution, die hat allerdings schon zum zweitenmal den Namen gewechselt, Geubuntu und heute openGEU. Daneben gibt es eine Reihe weiterer Distributionen, die auf Enlightenment als Default-Desktop setzen, zum Beispiel gOS, welches ebenfalls auf Ubuntu/Debian basiert. Fürs ein einfaches Testen von Enlightenment gibt es eine Live-Distribution – Elive genannt. Ich habe einen wirklich nur sehr kurzen Blick auf openGEU geworfen. openGEU stammt aus Italien, was man an den klangvollen Releasnamen unschwer erkennen kann und versucht die Power von Gnome mit dem Eyecandy von E17 zu verbinden. Die Version 9.10 Codename “Quarto di Luna” war derzeit nicht verfügbar und so habe ich einen kurzen Blick auf die Version 8.10. “Luna Serena” geworfen, welche am 16. März 2009 erschienen ist.
Die Installation unterscheidet sich überhaupt nicht von dem eines normalen Ubuntu, im Installer ist sogar noch bei der Partiotionierung “ubuntu” erhalten geblieben. Nach der Installation die wirklich zügig von statten geht und einem Reboot wird man bereits von einem optisch gelungenen Loginmanager begrüßt.

Dank eva der entsprechenden Bibliothek kann man auch ohne entsprechende Hardware 3D Effekte genißen und das ganze läuft rasch und flott. Einige Dinge gibt es noch, so benutzt man Thunar aus XFCE als Dateimanager, verzichtet auch auf das schwergewichtige OpenOffice und bringt stattdessen Abiword und Gnumeric zum Einsatz und als Mailclient setzt man auf Clawsmail. Und so sieht das Ganze aus.

Die aktuell stabile Version von Enlightenment ist immer noch E16 und dieser ist derzeit beim Stand von 0.16.8.15 welcher am 5. Januar 2009 released wurde. Eigentlich wurde E17 bereits im April 2009 kurzeitig eingefroren und man rechnete im September mit einem Release eines stabilen E17, siehe auch die damalige Meldung bei pro-linux.
Die stabile Version des Enlightenment ist auf openSUSE oder Ubuntu schnell installiert

sudo apt-get install e16
zypper install e16

Beim Ubuntu-System hatte ich allerdings nachher Probleme eine reine Gnome-Session zu starten. Der Windowmanager wurde einfach mit e16 ersetzt, nicht die feine englische.

gconftool -s /desktop/gnome/session/required_components/windowmanager metacity -t string

Bringt einem das Gewohnte in der Desktopumgebung zurück. Dem war aber nicht genug, eigentlich wollte ich mir ja E17 anschauen. openSUSE User finden ein entsprechendes Paket mit dem obligaten oneClick-Installer im openSUSE Buildservice. Ubuntu Nutzer können eine entsprechende Paketquelle hinzufügen:

sudo vi /etc/apt/sources.list

dann folgende Zeile anfügen:

deb http://packages.enlightenment.org/ubuntu lucid main extras
wget http://packages.enlightenment.org/repo.key
sudo apt-key add repo.key

Nach der Installation und dem ersten Login erfolgt eine geführte Konfiguration und dann kann man auch schon den E17 genießen.

Die binären Pakete sind allerdings nur Momentaufnahmen und manche sind schon etwas älter, so ist das Paket im openSUSE Buildservice der Entwicklungsstand vom 16. Mai 2010 und die im Repository für Ubuntu sind noch etwas älter nämlich vom 11. April. Will man den derzeitigen Entwicklungsstand von E17 testen, dann kommt man ums kompilieren nicht herum. Eine Möglichkeit bietet das Easy-E17 Skript. Bevor man es benutzen kann müssen automake und subversion installiert sein, das Skript checkt dann die aktuellen Quellen aus dem SVN aus und baut daraus den aktuellen Stand des E17 zusammen. Aber Achtung, dass muss nicht immer einen funktionierenden Desktop ergeben! In meinem Testfall hab ich mir damit sofort eine funktionierende E17 Installation zerschossen. Das sollten also wirklich nur die tun, die wissen was sie tun.

Am Ende bleibt nur eines zu sagen, die nicht wirklich häufigen Releasezyklen bzw. die völlig undurchsichtige Releasepolitik des Projektes verhindern wohl einVerbeitung von Enlightenment, der einst sehr beliebt war, auf dem Linux-Desktop. Die Entwicklung von E17 begann bereits 2001 und dauert nunmehr 9 Jahre, sicher mit einem nicht gerade großen Entwicklerteam braucht das auf jeden Fall seine Zeit. Die selbst gesteckten Ziele sind auf jeden Fall ehrgeizig. Enna oder auch die Erwägung die EFL-Bibliotheken im Ubuntu Netbook Remix für die ARM-Architektur einzusetzen zeigt, wo Enlightenment wohl in Zukunft eher eine Rolle spielen wird und aus diesem Grunde unterstützt wohl Samsung auch die Entwicklung. Ich jedenfalls bin wirklich gespannt, wann denn E17 sein Release haben wird.

Das Programm fatsort gibt es schon relativ lange, aber ich habe es nun zum ersten Mal gebraucht, weil ich bei meinem neuen mobilen Musikabspielgerät noch keine Möglichkeit gefunden habe, mir die Dateien und Ordner nach Namen sortiert anzeigen zu lassen.

sudo fatsort -D Music /dev/sdb

Das Kommando wirkt bei mir Wunder. Weitere Optionen lassen sich auf der Manpage nach lesen.

Wichtig zu wissen, ist, dass nur FAT16 und FAT32 unterstützt werden und dass es am besten ist, das Dateisystem nicht eingehängt (gemountet) zu haben.

31. August 2010

Über den wirklich guten Artikel Understanding Membership Structures in Debian and Ubuntu (Mitgliedsstrukturen in Debian und Ubuntu) habe ich das Blog apt-get install debian-wizard von Raphaël Hertzog gefunden.

Und dort hat es mir, neben den anderen guten Artikeln wie Joining Ubuntu as a Debian developer (sich als Debian Entwickler Ubuntu anschliessen) die Kopfgrafik ganz besonders angetan:

Debian: Design best distribution ever ... done.
Ubuntu: Make it usable by anybody ... done.
World domination ... in progress.
übersetzt etwa:
Debian: Gestalte die beste Distribution ... erledigt.
Ubuntu: Mache sie für jeden benutzbar ... erledigt.
Weltherrschaft ... in Arbeit.
Mir gefällt das richtig gut. Die beiden Distributionen ergänzen sich ganz hervorragend.

Mit openSUSE 11.3 wurde erstmals btrfs in den Installer integriert und openSUSE ist damit die erste Distribution, bei der sich bereits bei der Installation auf das neue Dateisystem setzen läßt. Grund genug sich das einmal anzuschauen.
Btrfs stammt aus der Feder von Chris Mason und wurde ursprünglich von Oracle als Linux-Filesystem entwickelt. Seit Kernel 2.6.29 ist Btrfs ein offiziell unterstütztes Linux-Dateisystem. Btrfs wird wahrscheinlich auf lange Sicht ext4 ersetzen und ist das Standard-Filesystem von MeeGo. Btrfs bietet ähnliche Funktionalitäten, wie das ursprünglich von Sun entwickelte ZFS darunter integriertes RAID, ein Subvolume und Snapshots. Wobei allerdings RAID 5 und 6 Funktionen bisher nicht implementiert sind.

Gegenüber herkömmlichen Hard- oder Software-RAID beitet das RAID-Subsystem von Btrfs allerdings den Vorteil, dass zwischen belegten und freien Datenblöcken unterschieden werden kann. Das kann bei Wiederherstellungen enorme Zeitersparnis bedeuten. Der wesentliche Unterschied zwischen ZFS und Btrfs ist meiner Ansicht nach weniger technischer Natur (wenn man von Stabilität und Entwicklungstand absieht) sondern eher die Lizenz während ZFS unter der CDDL steht und damit wohl nicht Eingang in den Linuxkernel finden wird, wird btrfs unter der GPL entwickelt.
Mit der aktuellen Ubuntu-Version Lucid Lynx läßt sich btrfs auch einsetzen, dafür muss man allerdings das entsprechende Kernelmodul nachladen und die Dateisystemwerkzeuge nachinstallieren.

Als erstes Grub kann derzeit nicht von btrfs-Partitionen booten. Daher sollte man über eine eigene Boot-Partition verfügen. Auf einem Ubuntu läßt sich Btrfs ganz einfach nachinstallieren, zuerst die Btrfs-Werkzeuge installieren.

sudo apt-get install btrfs-tools

Bei openSUSE findet man diese Werkzeuge im Paket btrfsprogs und installiert sie mit dem Aufruf

zypper install btrfsprogs

Am einfachsten geht es mit dem btrfs-convert Werkzeug eine Ext-Partition in eine btrfs-Partiotion zu konvertieren. Dazu darf die entsprechende Partiotion nicht gemountet sein.

sudo btrfs-convert /dev/sda7

Neben btrfs-convert enthalten die btrfs-tools: btrfsck, btrfs-debug-tree, btrfs-image, btrfs-show, btrfstune, btrfs-vol und btrfsctl. Mit btrfsctl können zum Beispiel eintsprechende Snapshots des Filesystemes angelegt werden, dass geht ganz einfach.

sudo btrfsctl -s NamedesSnapshot Volume/Tree

Die entsprechenden Snapshots sind platzsparend, da sie inkrementell angelegt werden, dass heißt nur die Veränderungen des Dateisystemes werden. Man sollte also direkt nach der Installation einen ersten Snapshot anlegen. Das Werkzeug btrfsctl ist allerdings veraltet und wird in Zukunft durch btrfs als Kommando ersetzt.

Auch Fedora unterstützt seit Version 11 btrfs. Btrfs auf Fedora zu installieren glich für mich einem kleinem Abenteuer. Irgendwo hatte ich gelesen, dass mit dem richtigem Bootparameter, Btrfs als Option in Anaconda zur Verfügung stehen würde, das kam mir gleich spanisch vor. Das hat auch nicht geklappt. Also habe ich das Kernelmodul von Hand geladen und die Btrfs-progs mit Yum nachinstalliert. Mein Plan war eine entsprechende Partition mit mkfs.btrfs zu formatieren und dann anschließen darauf zu installieren. Da wurde ich aber schnell eines besseren belehrt.

Eine normale Installation mit Ext4 als Dateisystem schlägt aber derzeit bei mir stetig fehl, dass könnte daran liegen, dass VirtualBox mit Ext4 Dateisystemen auf dem Host einige Probleme hat. Denn ähnliche Probleme habe ich derzeit mit anderen Distributionen. Ein Test auf dem Livesystem schlug allerdings fehl, ich habe die Werkzeuge nicht gefunden, eine längere Suche danach habe ich gar nicht erst angefangen.

Fedora 13 bietet aber dafür ein Yum-Plugin, welches nach einer Software-Installation den Rollback zu einer früheren System-Version ermöglicht.
Um das entsprechende Plugin zu installieren, ist folgender Aufruf nötig

yum install yum-plugin-fs-snapshot

Dieses Werkzeug legt vor jeder yum Installation einen entsprechenden Snapshot des Dateisystems an, die entsprechende Integration der Verwaltung der Snapshots mit Fedoras DeviceKit-Programm Palimpsest ist allerdings nicht in Fedora 13 integriert und wird wahrscheinlich erst mit de nächsten Version ausgeliefert. Siehe auch den entsprechenden Eintrag im Wiki von Fedora.
Dennoch ist es möglich, die entsprechenden Snapshots über einen Bootparameter für den Kernel als Subvolume zu mounten.

linux vmlinuz-2.6.33.3-85.fc13.i686.PAE root=/dev/sdc8 rootflags=subvol=yum_DatumZeitstempel

oder man mounted den entsprechenden Snapshot im laufenden System

mount -o subvol=yum_DatumZeitstempel /dev/sda2 /mnt

Das Yum-Plugin mach dabei von allen vorhandenen btrfs-Partitionen einen Snapshot, hat man also sein Home-Verzeichnis ebenfalls auf einer solchen, wird dieses eingeschlossen. Ein ähnliches Feature könnte eines Tages in openSUSE kommen, ein entsprechender Featurerequest für “zypper rollback” ist bereits in openFATE eingetragen.

Snapshots und damit inkrementelle Datensicherungen des Systemes ist aber nicht das einzige Feature, welches btrfs bietet. Btrfs integriert ebenfalls einen Volumemanager oder dessen Funktionalitäten. Damit lassen sich jederzeit die entsprechenden Partiotionen verkleinern oder vergrößern.

sudo btrfs-vol -a /dev/sdd /Mountpoint

Wie gesagt btrfsctl und btrfs-vol werden in der nächsten Generation durch das Werkzeug btrfs ersetzt. Auf Fedora sollen diese vorhanden sein, was ich wegen obige Installationsprobleme nicht bestätigen kann. Die btrfs-progs auf dem Livesystem liessen sich zwar installieren, waren nachher allerdings nicht vorhanden. Auf Ubuntu 10.10a habe ich sie nicht gefunden, egal was andere da schreiben. Um das Ganze dann doch auch noch mit einem Beta zu testen, haben ich den gestrigen Snapshot heruntergeladen und ausprobiert. Hier hatte ich zwar die gleichen Probleme mit einer Installation, allerdings im Livesystem konnte ich testen. Wie man sieht sind die btrfs-tools per Default installiert und btrfsctl ist noch vorhanden.

Insgesamt befindet sich btrfs noch im Entwicklungstadium und von seinem Einsatz im produktiven Umfeld ist abzuraten. So kann btrfsck zwar einen Integritätscheck für das Filesystem durchführen ist aber nicht in der Lage es zu reparieren. Auf der Entwicklungsmailingliste häufen sich die Fehlermeldungen das sich btrfs-Filesysteme nicht mehr mounten lassen, insbesondere nach Stromausfällen oder ähnlichem. Da alle großen Distributionen bereits btrfs integrieren, ist es so gut wie sicher das btrfs das Linux-Dateisystem der Zukunft sein wird. Das sehen auch Andrew Morton und Theodore Tso als Entwickler der Ext-Dateisysteme so. Es schadet also nicht, die Entwicklung ein wenig zu verfolgen.

Keine Panik
by Sarabbit

Um einen Linux-freundlichen Laptop zu kaufen, der zu dir passt, musst du drei Fragen beantworten:

  1. Für was brauchst du deinen neuen Linux Laptop?
  2. Was für Hardware benötigst du in deinem Linux Laptop?
  3. Welche Laptop-Komponenten sind dabei problematisch?

Wenn du diese Fragen beantwortet hast, musst du eigentlich nur noch die richtige Hardware auswählen und du hast deinen Laptop.

Wie du siehst, bauen die Fragen aufeinander auf.

Für was brauchst du deinen neuen Linux Laptop?

Letztlich bestimmt der Verwendungszweck deines Laptops, welche Hardware du brauchst. Wenn du mit deiner Maschine Grafiken erstellen und bearbeiten willst, hast du wahrscheinlich andere Anforderungen als wenn du hauptsächlich coden willst. Du musst  dir also klar werden, was du mit deiner Ubuntu Maschine machen willst.

Was für Hardware benötigst du in deinem Linux Laptop?

Welche Hardware-Komponenten werden von deinen Ideen und Interessen am meisten gefordert? Brauchst du eine leistungsfähige Grafikkarte, besonders viel RAM oder einen extrem schnellen Prozessor? 

Stell dir am besten eine Liste zusammen; schreibe alles auf was du brauchst.

Welche Laptop-Komponenten sind dabei problematisch?

Leider gibt es bestimmte Hardware-Komponenten die  unter einer Linux-Distribution wie Ubuntu immer wieder Probleme machen:

Grafikkarte

Ich empfehle dir zu kontrollieren, ob es Linux-Grafikkartentreiber für Ubuntu gibt. Die erste Anlaufstelle sollte die Webseiten der Grafikkarten-Hersteller sein. Bei Problemen und Fragen solltest du im Ubuntuusers-Forum nachfragen.

Suspend / Hibernate & Resume

Suspend & Resume sind oft eine Achillesferse unter Ubuntu. Hier kenne ich leider keine Patentlösung. Wenn irgendmöglich, stelle fest, ob der Laptop ein ACPI-kompatibles BIOS eingebaut hat.

WLAN-Karte

Theoretisch solltest du jede Karte zum laufen bekommen - wenn manchmal auch über Umwege. Ich habe die besten Erfahrungen mit Intel-Chips gemacht. Auch hier hilft im Zweifel Ubuntuusers.de weiter.

Sound-Karte

Wenn du kannst versuch einen Laptop ohne HDA-Chip(High Definition Audio) zu finden. Die HDA-Chips machen nämlich oft Ärger und nerven: mal funktioniert die Köpfhörer-Büchse nicht, mal geben die Boxen permanent ein Rauschen von sich.

Jetzt weisst du: worauf du bei deiner Suche nach einen Linux Laptop achten musst. Wenn du einen Laptop gefunden hast, solltest du auf jeden Fall den Laptop mit einer Live-CD ausführelich testen.

30. August 2010

So, der "Schrei nach Papier" (Call for Papers) ist verlängert worden bis zum 15.09.2010, jetzt gibt es keinen Grund mehr, sich zu drücken. ;-) Es ist noch ausreichend Platz vorhanden auch Deine Einreichung aufzunehmen, lieber Leser.

Die Ubucon ist das Familientreffen der deutschen und deutschsprachigen Ubuntu-Nutzer und die Anmeldung ist schon länger eröffnet.

Wer mehr Informationen zur Veranstaltung möchte, ist vielleicht in meiner Linksammlung gut aufgehoben. Wer wissen möchte, was ich machen möchte, wird hier fündig. Mit Roman zusammen werde ich etwas über MediaWiki und Trac erzählen (Stärken, Schwächen, Wieso?, Weshalb?, Warum?), das ist im alten Blog-Beitrag noch als Workshop X gekennzeichnet.

Da uShare seit neuestem bei mir nur Probleme machte musste ich mir eine Alternative suchen. Gesucht und gefunden. MiniDLNA.

Daher folgt nun die Anleitung wie diese neue Software zu installieren ist und anschließend konfiguriert wird.

Im folgenden sind die Schritte beschrieben wie man sie mittels Terminal auszuführen hat, da bei mir MiniDLNA auf einem Server läuft.

  • wget http://downloads.sourceforge.net/project/minidlna/minidlna/1.0.18/minidlna_1.0.18_static.tar.gz?r=http%3A%2F%2Fsourceforge.net%2Fprojects%2Fminidlna%2F&ts=1283183576&use_mirror=mesh
  • tar -xzf minidlna_1.0.18_static.tar.gz
  • sudo cp usr/sbin/minidlna /usr/sbin
  • sudo cp etc/minidlna.conf /etc/
  • sudo nano /etc/minidlna.conf
  • folgende (wichtige) Einstellungen:
    • Port=8200
    • network_interface=eth0
    • media_dir=V,/media (V = Video, P=Images, A=Audio)
    • friendly_name=MiniDLNA
    • presentation_url=http://privateIP:8200 (die IP wo der Content liegt also in dem Fall der Server)
  • sudo /usr/sbin/minidlna

Bezüglich des media_dir. Wenn ihr alle Typen zur Verfügung stellen wollt einfach media_dir=/media angeben z.B.. Solltet ihr mehrere Ordner angeben wollen einfach untereinander mehrere media_dir Zeilen machen.

Nun wurde alles eingerichtet und mit dem letzten Befehl der Server gestartet. Wenige Minuten später ist alles erledigt und ihr könnt von eurem TV (z.B.) die Mediadaten abrufen.

Xen 4.0 hat einige interessante Features eingeführt. Am Auffälligsten dürfte die Umstellung des vom Xen-Projekt gepflegten Dom0-Kernels auf “pvops” sein. Es handelt sich dabei um eine Technologie, mithilfe derer ein Kernel erkennt, ob er auf “nacktem Metall” (“bare metal” = direkt auf Hardware) oder auf dem Xen-Hypervisor läuft. Für unpriviligierte Domains (domU) ist dieses Feature bereits seit geraumer Zeit im Linux-Kernel enthalten, für dom0s is es neu und muss über den Kernel des Xen-Projektes installiert werden.

Ich habe einmal testweise ein Setup auf einer AMD64-Maschine erstellt, auf 32-Bit-Systemen sind lediglich einige Kleinigkeiten anders: Der Kernel muss PAE-Support haben und es muss zwingend ein Prozessortyp ausgewählt werden, der über Virtualisierungserweiterungen verfügt. Da heutzutage kaum Rechner als Xen-Host zum Einsatz kommen dürften, die nicht 64-Bit-tauglich sind, sollte sich die Frage nach pvops-Dom0s auf 32-Bit-Hardware kaum stellen.

Die Vorbereitung

Fürs Bauen des Kernels müssen zuerst einige Debian-Pakete nachinstalliert werden. Meine Testmaschine war ein recht blankes Netinstall, so dass diese Liste hoffentlich vollständig ist:

apt-get install build-essential libncurses5-dev python-twisted \
        git-core zlib1g-dev gettext libX11-dev uuid-dev libssl-dev\
        bin86 bcc flex bison python-dev bridge-utils

Auf 64-Bit-Systemen außerdem:

apt-get install libc6-dev-i386

Neuere Xen-Versionen benötigen Intels ACPI-Compiler. Den habe ich noch nicht in den Ubuntu-Paketlisten gefunden, stattdessen habe ich ihn aus den Quellen gebaut und mittels install installiert. Da nur ein einziges Binary benötigt wird, ist es leicht möglich, das temporäre Build-Verzeichnis in den Pfad aufzunehmen und so das System nicht zu verschmutzen. Bitte prüft vor der ACPICA-Installation, ob unter http://www.acpica.org/downloads/ neuere Versionen bereitstehen:

cd /usr/src
wget http://acpica.org/download/acpica-unix-20100806.tar.gz
tar xvzf acpica-unix-20100806.tar.gz
cd acpica-unix-20100806/compiler
make
install -m 0755 iasl /usr/bin

Bau und Boot des pvops-Kernels

Wie eingangs erwähnt, ist Support für pvops-Dom0 noch nicht Teil des offiziellen Kernels. Es muss daher Jeremys 2.6.32er mit pvops-Patches ausgecheckt werden. Falls jemand abkürzen möchte, kann er hier die von mir verwendeten Sourcen herunterladen, diese beinhalten bereits eine .config.

cd /usr/src
git clone git://git.kernel.org/pub/scm/linux/kernel/git/jeremy/xen.git linux-2.6-xen
cd linux-2.6-xen
git reset --hard
git checkout -b xen/stable-2.6.32.x origin/xen/stable-2.6.32.x

Beim Selbstbau dürfte es meist ganz gut passen, die Kernelconfig des Ubuntu als Basis zu verwenden und mit make oldconfig die Xen-spezifischen Punkte zu ergänzen. Wer dabei die richtigen Treiber statisch einbindet, braucht auch an der Initramfs-Konfiguration nichts zu modifizieren:

cd /usr/src
cd linux-2.6-xen
cp /boot/config-` uname -r ` .config
make oldconfig

Zum Vergleich hier meine Xen-spezifischen Optionen:

CONFIG_XEN=y
CONFIG_XEN_MAX_DOMAIN_MEMORY=32
CONFIG_XEN_SAVE_RESTORE=y
CONFIG_SWIOTLB_XEN=y
CONFIG_MICROCODE_XEN=y
CONFIG_XEN_DOM0=y
CONFIG_XEN_PRIVILEGED_GUEST=y
CONFIG_XEN_DOM0_PCI=y
CONFIG_XEN_PCI_PASSTHROUGH=y
CONFIG_PCI_XEN=y
CONFIG_XEN_PCIDEV_FRONTEND=y
CONFIG_XEN_BLKDEV_FRONTEND=m
CONFIG_NETXEN_NIC=m
CONFIG_XEN_NETDEV_FRONTEND=m
CONFIG_XEN_KBDDEV_FRONTEND=m
CONFIG_HVC_XEN=y
CONFIG_XEN_FBDEV_FRONTEND=m
CONFIG_XEN_BALLOON=y
CONFIG_XEN_SCRUB_PAGES=y
CONFIG_XEN_DEV_EVTCHN=m
CONFIG_XEN_BACKEND=y
CONFIG_XEN_NETDEV_BACKEND=y
CONFIG_XEN_BLKDEV_BACKEND=y
CONFIG_XEN_BLKDEV_TAP=y
CONFIG_XEN_BLKBACK_PAGEMAP=y
CONFIG_XEN_PCIDEV_BACKEND=y
CONFIG_XEN_PCIDEV_BACKEND_VPCI=y
CONFIG_XENFS=m
CONFIG_XEN_COMPAT_XENFS=y
CONFIG_XEN_SYS_HYPERVISOR=y
CONFIG_XEN_MCE=y
CONFIG_XEN_XENBUS_FRONTEND=y
CONFIG_XEN_GNTDEV=m
CONFIG_XEN_S3=y
CONFIG_ACPI_PROCESSOR_XEN=y
CONFIG_XEN_PLATFORM_PCI=m

Wer möchte, kann meine Konfiguration komplett oder als unified diff (gegen Ubuntus 2.6.32-24 Kernel) herunterladen und diese verwenden. Das Bauen geht dann wie gewohnt, ich strippe die Kernelmodule und erstelle gleich eine GRUB-Konfiguration:

make
make install
make modules_install
find /lib/modules/2.6.32.18-xen0-pvops/ -name '*.ko' -exec strip --strip-unneeded {} \;
mkinitramfs -o /boot/initrd.img-2.6.32.18-xen0-pvops 2.6.32.18-xen0-pvops
update-grub

Der erste Neustart

Rebooten Sie nun den Rechner und wählen Sie den neuen pvops-Kernel als Startkernel aus. Die Maschine sollte problemlos hochfahren, tut sie das nicht, stehen die Chancen schlecht, dass dieser Kernel auch auf Xen sauber startet.

Installation von Xen und den Xen-Tools

Als dieses Tutorial erstellt wurde, war mit Xen 4.0.1 gerade die erste Maintenance-Release der 4.0er-Reihe erhältlich. Falls Sie noch 3.4.x oder 4.0.0 verwenden (und damit zufrieden sind): Aktualisieren Sie auf jeden Fall auf 4.0.1, weil hier einige Bugs im Zusammenspiel von Xen und dom0-pvops-Kerneln beseitigt wurden:

cd /usr/src
wget http://bits.xensource.com/oss-xen/release/4.0.1/xen-4.0.1.tar.gz
tar xvzf xen-4.0.1.tar.gz
cd xen-4.0.1
make xen
make install-xen
make tools
make install-tools PYTHON_PREFIX_ARG=

Es folgt die Erstellung einer Bootloder-Konfiguration, bitte die UUID entsprechend anpassen:

vim.tiny /etc/grub.d/50_xen
#!/bin/sh
exec tail -n +3 $0
# This file provides an easy way to add custom menu entries.  Simply type the
# menu entries you want to add after this comment.  Be careful not to change
# the 'exec tail' line above.
menuentry "Ubuntu 10.04 - Xen 4.0.1 - 2.6.32.18 pvops" {
        insmod ext2
        set root=(hd0,1)
        search --no-floppy --fs-uuid --set dc50c3d6-787a-45d7-951b-20836d10443c
        multiboot /boot/xen-4.0.1.gz dummy=dummy
        module /boot/vmlinuz-2.6.32.18-xen0-pvops root=UUID=dc50c3d6-787a-45d7-951b-20836d10443c ro dummy=dummy
        module /boot/initrd.img-2.6.32.18-xen0-pvops
}
chmod a+x /etc/grub.d/50_xen
vim.tiny /etc/default/grub
GRUB_DEFAULT="Ubuntu 10.04 - Xen 4.0.1 - 2.6.32.18 pvops"
GRUB_HIDDEN_TIMEOUT=30
GRUB_HIDDEN_TIMEOUT_QUIET=false

Anschließend nicht vergessen, die Grub-Konfiguration noch einmal neu aufzubauen:

update-grub

Ein Dateisystem für Xen: Einige Scripte benäötigen das alte /proc/xen. Dieses wird durch einen Eintrag in der /etc/fstab beim nächsten Neustart gemountet:

xenfs /proc/xen xenfs defaults

Dann benötigen wir noch zwei Module und deren Devices – die Module sollten in die /etc/modules eingetragen werden:

modprobe -v xen-evtchn
modprobe -v xen-gntdev
mkdir /dev/xen
mknod -m 0660 /dev/xen/gntdev c 10 57
mknod -m 0660 /dev/xen/evtchn c 10 58

Das war es: Beim nächsten Neustart startet der eben gebootete pvops-Kernel nicht auf nacktem Metall, sondern auf dem Hypervisor. Mit pvops-Kernel sollte es auch möglich sein, die beschleunigten Grafiktreiber von AMD und nVidia zu nutzen, ausprobiert habe ich dies nicht, weil bei mir Xen nur auf dem Server eingesetzt wird.

Auf die Konfiguration von pvops-DomUs gehe ich in den nächsten Tagen ein: Für diese halten aktuelle Distributionen oft passende Kernel bereit, ich werde jedoch auch zeigen, wie man mit einem frischen Vanilla-Kernel 2.6.35.x ein wenig mehr herausholt.

Vielen Dank an…

Update, 31. August 2010

  • bridge-utils zur Paketliste hinzugefügt
  • Ergänzung zu /proc/xen
  • Ergänzung zu fehlenden Devices und Modulen