ubuntuusers.de

🚧 Am Sonntag, 5. Mai, werden ab 16 Uhr die Server aktualisiert und eine neue Inyoka-Version veröffentlicht. Das Portal wird mehrmals nicht verfügbar sein.

3. August 2009

Auf dem Laptop, mit dessen Tastatur gerade dieser Satz geschrieben wird, passte keine meiner üblicherweise gewählten Oberflächen so richtig gut. Also wurde der eigentlich für Netbooks gedachte Ubuntu Netbook Remix (UNR) installiert.

IceWM ist zwar komplett mit Tastatur steuerbar, davon abgesehen aber nicht wirklich auf Laptops mit ihren etwas wackeligeren Touchpads (statt der treffgenauen Maus) angepasst. Es sollte schon eher was mit durchgängiger GUI sein, ohne Terminalnutzung, aber besser doch kein GNOME, da auch diese Desktopumgebung mir nicht gut zu passen schien. Wie ist diese andere Oberfläche überhaupt für Laptops angepasst?

Anpassungen

Einige der Änderungen sind einfache Anpassungen an die Gegebenheiten von Netbooks.

Große Menüs

Passend für Laptops sind die großen Menüs, also das Vollbildmenü mit großen Icons. Je größer das Ziel desto einfacher ist es zu treffen, daher vereinfachen die großen Icons den Start der Programme. Ebenfalls bei Laptops nützlich: Ein Klick reicht aus und startet das Programm sofort, der Doppelklick entfällt.

Ein Panel

Das Panel am oberen Rand beinhaltet den Großteil der übrigen Anpassungen.

Statt der zusätzlichen Leiste unten für laufende Programme beinhaltet das Panel oben links kleine Icons der laufenden Programme. Rechts laufen kleine Helferprogramme, Netzwerkmanager und Uhr, wie man es gewohnt ist.

Maximiert

Programme starten grundsätzlich maximiert, Pidgin ist hier eine Ausnahme. Es entfällt so etwas die Fensterverwaltung, also das Platzieren von Fenstern nebeneinander.

Brüche

Andere Eigenschaften des UNR brechen doch deutlich mit den sonst üblichen Standards von Linux-Desktopoberflächen.

Integrierte Titelleiste

Die Titelleiste des Programms wird in das Panel integriert. Das kann man oben schon erkennen, aber deutlicher wird es auf diesem Bild:

Das erinnert an Apples Mac OS, nicht aber an GNOME. Es spart sicher Platz ein, führt aber wie das Maximierungsverhalten dazu, dass wie bei einem Smartphone zwischen den Anwendungen hin- und hergewechselt wird.

Keine Virtuellen Desktops

Dieses Wechseln wäre alternativ auch durch die gezielte Verwendung von virtuellen Desktops möglich gewesen. Während im normalen Ubuntu immerhin noch zwei solcher Arbeitsflächen bereitstehen, findet sich beim UNR genau eine, also keine. Das Konzept wird schlichtweg nicht genutzt.

Fazit

Der UNR bewegt sich auf dem schmalen Grad zwischen Platzersparnis und einfacher Benutzung mit Touchpad/Touchscreen durch größere und einfachere Bedienelemente. Der Konflikt wird bei der Fensterverwaltung deutlich: Da zwischen den maximierten Fenstern immer gewechselt wird wäre ein einfaches Fensterwechseln praktisch, mit der Maus ist dies aber durch die kleinen Icons nicht unbedingt einfach - hier "muss" auf die Tastatur zurückgegriffen werden. Der Verzicht auf virtuelle Desktops schadet sicher nicht der Anpassungsfähigkeit von Windowsnutzern, macht aber das ernsthafte Arbeiten mit dieser Oberfläche, z.B. zum Programmieren, nicht gerade einfacher. Dafür ist sie aber scheinbar auch nicht gedacht, sowenig wie Netbooks dafür nunmal geeignet sind. Für Laptops jedoch könnte man sich ein wenig von der Platzersparnis wegbewegen, und sei es durch größere Icons im Panel.

Falls jemand den Remix getestet hat: Blieb er der Standarddesktop, obwohl mehr gemacht wurde als zu surfen?

Seit Februar 2006 gibt es nun das freiesMagazin, dass ist eine ganz schöne Kontinuität und vor allem, wenn man betrachtet, dass alles in der Freizeit geschieht und welche Arbeit hinter so einem Magazin steckt. Tja und dafür werden immer Mitstreiter gesucht, im Moment Autoren, Setzer und Korrektoren.

2. August 2009

Auch diesen Monat gibt es wieder einen Kernel-Rückblick. Dieser ist, neben vielen anderen interessanten Themen, in der aktuellen Ausgabe von freiesMagazin enthalten.

Hatte Torvalds das Merge Window mit dem 2.6.31-rc1 noch im Juni geschlossen (siehe „Der Juni im Kernel-Rückblick“, freiesMagazin 07/2009 [1]), so kamen trotzdem noch einige wichtige Patches hinzu, die in erster Linie die MIPS- und PowerPC-Architekturen betreffen. Korrekturen an Intels i915-Grafiktreiber und Aufräumarbeiten des Codes für PAE (Physical Address Extension) [2] sorgten für Probleme beim Kompilieren des Kernels auf i386-Systemen, davon war auch der Build-Service für Ubuntus Mainline-Kernel-Archiv [3] betroffen. Der Umfang der Änderungen im -rc2 [4] fiel zwar geringer aus als bei den vergangenen Kernel-Versionen, jedoch nicht genug für Torvalds. Das wurde auch im -rc3 [5] nicht besser, zumal mit einem großen Patch der USB-to-Go-Treiber [6] für Intels Langwell-Chipsatz wieder entfernt wurde. Dieser setzt auf eine Komponente auf, die in den aktuellen Kernel noch gar keinen Eingang gefunden hat und damit nur unnützen Ballast darstellen würde. Besser erging es dem -rc4 [7], der erheblich weniger Änderungen erfahren hatte, dafür kämpfte man mit Problemen der binutils [8], des ccache [9] und des Compilers [10], die zwar außerhalb des Kernels ihre Ursache hatten, aber dessen Erstellung unverzichtbar sind und deren Fehler sich dadurch direkt auf die Kernelentwicklung auswirken.

Mit FUSE (Filesystem in Userspace) [11] wurde es begonnen, indem Dateisysteme in unprivilegierten Kontext ermöglicht wurden, und mit CUSE (Characterdevices in Userspace) folgt man nun weiter dem Trend, Treiber aus dem Kernelspace in den Berechtigungskontext des Anwenders zu verlagern. Dabei stützt sich CUSE auf die FUSE-Implementierung, um älterer Software zum Beispiel eine serielle Schnittstelle im Userspace zur Verfügung zu stellen.

Apropos ab in den Userspace: Einen ähnlichen Weg könnte auch der X-Server gehen. Dank Kernel Modesetting (KMS) [12], das seit Kernel 2.6.29 zur Verfügung steht, könnten die meisten Operationen des X-Servers nun ohne höhere Privilegien auskommen. An die X.org-Entwickler-Mailingliste schickte der Intel-Entwickler Jesse Barnes einen nur etwa 100 Zeilen langen Patch [13], der eine Zusammenarbeit des X-Servers mit KMS ermöglicht. Bis wann ein X-Server ohne root-Rechte tatsächlich auf den Rechnern der Anwender läuft, steht jedoch noch in den Sternen.

Für Staunen sorgte Microsoft, als sie die Veröffentlichung ihres Hyper-V-Treibers für Linux unter der GPLv2 bekannt gaben [14]. Greg Kroah-Hartman kündigte auch gleich die baldige Aufnahme des Treibers in den Kernel an, vorerst ist der Code in Kroah-Hartmans staging-Tree vorhanden. Allerdings folgte auch bald schon die Ernüchterung, als bekannt wurde, dass der Treiber bereits GPL-Bestandteile beinhaltete und in dieser Form vor seiner Veröffentlichung die GPL verletzte [15]. Der Entwickler Stephen Hemminger stieß bereits vor der Veröffentlichung des Treibers auf diesen Umstand [16] und machte Kroah-Hartmann darauf aufmerksam, der dies wiederum an Microsoft weitergab.

Von Schwachstellen bleibt auch der Kernel nicht verschont und ein Grund zur Begeisterung sind sie eigentlich auch nie - eigentlich, da der Entwickler Brad Spengler eine Lücke fand, die von seinem Kollegen Bojan Zdrnja als „interessant“ eingestuft wurde [17]. Betroffen waren die Kernelversionen 2.6.30 und die für RHEL5 angepasste Version 2.6.18. Hier war es möglich, über die NET/TUN-Implementierung einer Variable den Wert NULL zu geben, wodurch es möglich ist, höhere Rechte im System zu erlangen. Das Interessante an diesem Fehler ist nun, dass ein Mechanismus im Code existiert, der verhindern soll, dass die entsprechende Variable NULL wird, die entsprechenden Codezeilen aber von den Optimierungsfunktionen des Compilers entfernt werden. Ein solcher Fehler wird während einer Überprüfung des Quelltextes dann nicht gefunden, da die Funktionen ja noch vorhanden sind.

Derlei Probleme machen immer wieder Aktualisierungen des Kernels notwendig. Damit nicht auch gleich ein Neustart des Systems hinzukommt, entwickelten Mitarbeiter des MIT (Massachusetts Institute of Technology) [18] eine Methode, um Kernel-Patches im laufenden Betrieb ohne Reboot durchzuführen (siehe „Kernel-Rückblick“, freiesMagazin 05/2008 [19]). Diese Methode, Ksplice genannt, die erst dieses Jahr mit einem Preis des MIT gewürdigt wurde (siehe „Der Mai im Kernel-Rückblick“, freiesMagazin 06/2009 [20]), nutzt die Möglichkeit, Kernel-Module zur Laufzeit nachzuladen. Hierzu betreibt das neugegründete Unternehmen Ksplice [21] den Dienst Uptrack, welcher die Kernel-Aktualisierungen bereitstellt, die dann von dem zugehörigen Client in Module verpackt und zum Kernel geladen werden. Dies soll für über 80% der Kernel-Aktualisierungen der letzten Zeit möglich sein und damit nie gekannte Laufzeiten von Linux-Servern ermöglichen. Der Client ist für Fedora und nun auch für Ubuntu [22] verfügbar.

Der Kernel-Juli endete weniger erfreulich, als der langjährige Kernel-Entwickler Alan Cox die Pflege des TTY-Layers aufgab [23]. Der Grund hierfür liegt in einer Diskussion auf der Linux-Kernel-Mailingliste, die Ende Juli ihren Anfang nahm, als ein Problem von kdesu, der grafischen Oberfläche zum Ausführen von Befehlen unter einem anderen Benutzer in KDE, mit einem bereits am 7. Juli eingereichten und im -rc2 enthaltenen Patch, der Fehler in der Umsetzung von Pseudoterminals (pty) [24] beseitigen sollte [25]. Darin beschuldigt Linus Torvalds Cox [26], der darauf hinwies, dass die Implementierung von kdesu seiner Ansicht nach nicht korrekt sei und nur durch Glück bisher funktioniert habe, das Problem anderen zuzuschieben, anstatt den Fehler in seinem Patch zu suchen. Daraufhin entfernte Cox seinen Namen aus der Maintainerliste für den TTY-Layer [27] mit der Aufforderung an Torvalds, das Problem selbst zu beheben. Dennoch wird sich Cox weiterhin in anderen Bereichen an der Kernelentwicklung beteiligen.

Links:
[1] http://www.freiesmagazin.de/freiesMagazin-2009-07
[2] http://de.wikipedia.org/wiki/Physical_Address_Extension
[3] http://kernel.ubuntu.com/~kernel-ppa/mainline/v2.6.31-rc2/
[4] http://lkml.org/lkml/2009/7/4/76
[5] http://lkml.org/lkml/2009/7/13/380
[6] http://de.wikipedia.org/wiki/USB_On-the-go\#USB_On-the-go
[7] http://lkml.org/lkml/2009/7/22/483
[8] http://de.wikipedia.org/wiki/GNU_Binutils
[9] http://de.wikipedia.org/wiki/Ccache
[10] http://de.wikipedia.org/wiki/Compiler
[11] http://de.wikipedia.org/wiki/Filesystem_in_Userspace
[12] http://en.wikipedia.org/wiki/Mode-setting
[13] http://lists.x.org/archives/xorg-devel/2009-July/001293.html
[14] http://www.pro-linux.de/news/2009/14467.html
[15] http://www.linux-magazin.de/NEWS/GPL-Verletzung-Microsofts-Code-Spende-m...
[16] http://linux-network-plumber.blogspot.com/2009/07/congratulations-micros...
[17] http://www.linux-community.de/Internal/Nachrichten/Erratum-Faszinierende...
[18] http://mit.edu/
[19] http://freiesmagazin.de/freiesMagazin-2008-05
[20] http://freiesmagazin.de/freiesMagazin-2009-06
[21] http://www.ksplice.com/
[22] http://www.golem.de/0907/68403.html
[23] http://www.heise.de/newsticker/meldung/142773
[24] http://de.wikipedia.org/wiki/Pseudoterminal
[25] http://lkml.org/lkml/2009/7/7/287
[26] http://lkml.org/lkml/2009/7/28/373
[27] http://lkml.org/lkml/2009/7/28/375

 

Vor Monaten habe ich schon mal damit angefangen, über einen Playlistengenerator nachzudenken. Erste Experimente führten zum Erfolg.

Diese Experimente sind lange her und ich hatte das Tool vergessen, womit ich experimentiert hatte. Ein Kommando, welches noch aus ganz alten Unix Tagen erhalten ist, ist apropos. Da ich ich mich nicht mehr an den Namen des Tools erinnern konnte, half ein apropos playlist zur Erkenntnis.

apropos playlist
fapg (1)             - Fast Audio Playlist Generator

fapg war also das Tool.
Beispielsweise erzeugt fapg JT-Bruce/* -o jt.m3u eine Playlist mit dem Namen jt.m3u

Das ist schon ganz Prima, damit habe ich jetzt eine Playlist für einen Künstler, im Player könnte man nun shuffle oder Random (egal wie es nun heißen mag) also mehre Stunden Musik hören, Nur ist das immer von einem Künstler.

Natürlich kann man mit  fpag auch eine ganze Directorystruktur und damit Hunderte von Titeln in die Playlist aufnehmen, doch irgendwie brefriedigt mich das nicht. Man sollte eine komplett Playlist nehmen, die verwürfeln und dann einfach einen Auschnitt spielen, damit hätte man wirklich abwechslungreiche Musik. Da kommt das nächste Tool ins Spiel, das ich zugegebenermaßen nicht selber entdeckt habe, sondern das ich soeben zufällig im planeten entdeckte. shuf (via ubuntuverse.at)

find . |egrep -i "(mp3|ogg|mp4)">komplettliste.txt erzeugt die Gesamtliste meiner Musiksammlung.

Dabei mache ich mir die OR Funktion von grep zu Nutze, braucht man manchmal doch :-)

Da der wdtv mit Listen über 2000 Titel etwas langsam wirkt, habe ich mir einfach ein paar Playlists nach diesem Muster angelegt:

shuf komplettliste.txt | head -1000 |fapg -s - -o 1000-1.m3u

Damit kommt man schon ganz gut zurecht, man könnte natürlich noch eine Gui braten, der Commandline Freak wird hiermit aber glücklich. Naja ich jedenfalls :-) Ich habe mir einfach fünf Listen angelegt, die jeweils 1000 Titel umfassen.

Achso, fapg hat noch ein paar Mängel. Manche ID3 Header scheint es nicht zu mögen: Warning >> ID3 header is huge (1066998 bytes) ist aber nicht schlimm, es wird trotzdem korrekt verwendet. Machmal kommt es zu Coredump, dann macht man es eben nochmal


Vor Monaten habe ich schon mal damit angefangen, über einen Playlistengenerator nachzudenken. Erste Experimente führten zum Erfolg.

Diese Experimente sind lange her und ich hatte das Tool vergessen, womit ich experimentiert hatte. Ein Kommando, welches noch aus ganz alten Unix Tagen erhalten ist, ist apropos. Da ich ich mich nicht mehr an den Namen des Tools erinnern konnte, half ein apropos playlist zur Erkenntnis.

apropos playlist
fapg (1)             - Fast Audio Playlist Generator

fapg war also das Tool.
Beispielsweise erzeugt fapg JT-Bruce/* -o jt.m3u eine Playlist mit dem Namen jt.m3u

Das ist schon ganz Prima, damit habe ich jetzt eine Playlist für einen Künstler, im Player könnte man nun shuffle oder Random (egal wie es nun heißen mag) also mehre Stunden Musik hören, Nur ist das immer von einem Künstler.

Natürlich kann man mit  fpag auch eine ganze Directorystruktur und damit Hunderte von Titeln in die Playlist aufnehmen, doch irgendwie brefriedigt mich das nicht. Man sollte eine komplett Playlist nehmen, die verwürfeln und dann einfach einen Auschnitt spielen, damit hätte man wirklich abwechslungreiche Musik. Da kommt das nächste Tool ins Spiel, das ich zugegebenermaßen nicht selber entdeckt habe, sondern das ich soeben zufällig im planeten entdeckte. shuf (via ubuntuverse.at)

find . |egrep -i "(mp3|ogg|mp4)">komplettliste.txt erzeugt die Gesamtliste meiner Musiksammlung.

Dabei mache ich mir die OR Funktion von grep zu Nutze, braucht man manchmal doch :-)

Da der wdtv mit Listen über 2000 Titel etwas langsam wirkt, habe ich mir einfach ein paar Playlists nach diesem Muster angelegt:

shuf komplettliste.txt | head -1000 |fapg -s - -o 1000-1.m3u

Damit kommt man schon ganz gut zurecht, man könnte natürlich noch eine Gui braten, der Commandline Freak wird hiermit aber glücklich. Naja ich jedenfalls :-) Ich habe mir einfach fünf Listen angelegt, die jeweils 1000 Titel umfassen.

Achso, fapg hat noch ein paar Mängel. Manche ID3 Header scheint es nicht zu mögen: Warning >> ID3 header is huge (1066998 bytes) ist aber nicht schlimm, es wird trotzdem korrekt verwendet. Machmal kommt es zu Coredump, dann macht man es eben nochmal


War das Changelog zu -rc4 bereits recht übersichtlich, ist es mit der Ruhe nun wieder vorbei. Damit, und mit der Tatsache, dass die Aufnahme einiger Patches noch aussteht, dürfte die Fertigstellung von 2.6.31 zumindest vor -rc7 nicht mehr zu erwarten sein.

Ein großer Teil der Änderungen kommen der PPC-Architektur, der DMA-Implementierung, dem Webcam-Gerätetreiber GSPCA und dem Direct Rendering Manager, dabei jedoch in erster Linie den Radeon-Treibern, zugute. Daneben gab es noch Korrekturen im Bereich der V4L/DVB-Treiber und am Dateisystem btrfs, zudem hat Sarah Sharp ihrer USB 3.0-Implementierung noch einige Fehler ausgetrieben. Einige neue Treiber kamen abermals hinzu, darunter für Atens USB-Seriell-Adapter UC2322 und für eine Batterie-Überwachung DS-2782 von Maxim Integrated Products.

Der Kernel 2.6.31-rc5 für Ubuntu im Mainline-Kernel-Archiv:
Achtung! Die Installation von Fremdpaketen kann die Systemstabilität beeinträchtigen!
Die Pakete 2 und 3 müssen nur installiert werden, wenn Anwendungen vorhanden sind, die die Headerdateien benötigen um z.B. Kernelmodule zu kompilieren. Die Pakete sollten dann in der jeweils aufgeführten Reihenfolge installiert werden.

Architektur i386 (32 Bit):

  1. linux-image-2.6.31-020631rc5-generic_2.6.31-020631rc5_i386.deb
  2. linux-headers-2.6.31-020631rc5_2.6.31-020631rc5_all.deb
  3. linux-headers-2.6.31-020631rc5-generic_2.6.31-020631rc5_i386.deb

Architektur amd64 (64 Bit):

  1. linux-image-2.6.31-020631rc5-generic_2.6.31-020631rc5_amd64.deb
  2. linux-headers-2.6.31-020631rc5_2.6.31-020631rc5_all.deb
  3. linux-headers-2.6.31-020631rc5-generic_2.6.31-020631rc5_amd64.deb

Quelle: Linux Kernel Mailing List

 

Ob geeqie eine exotische Linux-Anwendung ist, möge jeder für sich entscheiden. Für mich ist geeqie ein schneller und vielseitiger Bilderbetrachter. Er ist für mich ein würdiger Nachfolger für GQView, das sagen die Entwickler von Geeqie ja selber auch. geeqie ist noch recht jung. Sinnvoll ist es, das Programm selber zu kompilieren. Mich faszinieren die folgenden Eigenschaften:

In der Juli-Ausgabe von linuxuser stieß ich auf das Projekt eBox, welches eine Weboberfläche zur Administration eines (Ubuntu-) Linux-Servers bereitstellt. Da ich Probleme mit CUPS hatte und sowieso mit dem Gedanken spielte, meinen Homeserver einfach platt zu machen und neu aufzusetzen, wollte ich eBox mal ausprobieren.

Also die DVD, die dem Heft beilag, eingelegt und versucht, den Eee davon zu booten. Doch aus unerfindlichen Gründen wollte das nicht funktionieren. Also lud ich mir das eBox-ISO herunter und brannte es auf CD. Und siehe da, ich konnte davon booten.

Doch das Erfolgserlebnis hielt nicht lange. Das Grundsystem, nämlich Ubuntu Server 8.04, ließ sich noch problemlos installieren. Der “eBox-Aufsatz” hingegen sollte sich zur unendlichen Geschichte entwickeln.

Dabei sah es erstmal gut aus: Ich konnte auswählen, welche Module ich installieren wollte (ich entschied mich nur für “eBox-office”), und der Installationsprozess startete. Doch dann war Geduld angesagt: die Installation lief und lief und lief und…ich brach sie einfach ab, weil ich vermutete, dass irgendwas schief gelaufen war.

Nach dem Neustart des Rechners versuchte ich ein manuelles “sudo apt-get install ebox-office”, doch ich bekam nur eine Fehlermeldung und die Aufforderung, es mit “sudo dpkg –conficure -a” zu versuchen, was ich dann auch tat. Daraufhin wurden einige Pakete eingerichtet, was insgesamt geschlagene 3,5h dauerte. Das war es allerdings immer noch nicht gewesen, eBox wollte nach der Eingabe eines Passworts für die Weboberfläche noch weiter herumkonfigurieren, und ich gab erneut entnervt auf.

Also versuchte ich einen neuen Ansatz: erst einmal ein “normales” Ubuntu Server 8.04 installieren, dann die eBox-Paketquellen einbinden und anschließend die Pakete installieren. Das funktionierte dann auch besser, ich konnte das Modul “eBox-office” erfolgreich installieren und bekam schließlich sogar die besagte Weboberfläche zu sehen.

Allerdings nur die Login-Seite, denn nach Eingabe des Passworts und eines Klicks auf “Login”, lud die Seite, und lud, und lud…und ich enschied, nach mehreren Tagen erfolglosen Herumgefummels, die Sache mit eBox endgültig sein zu lassen.

Gestern packte ich dann die CD mit Ubuntu Server 8.04, installierte das System, richtete mir Wake on Lan und CUPS “zu Fuß” ein und hatte nach vergleichsweise kurzer Zeit wieder einen funktionsfähigen Homeserver. Den Klicki-Buntui-Komfort einer Weboberfläche habe ich jetzt zwar nicht, aber es läuft wenigstens…

Diese Woche in der Konsole

  1. Datei kopieren mit dem selben Namen aber neue Endung (.bkp).

    cp datei{,.bkp}
    
    ls datei*
    datei  datei.bkp
    
  2. FTP Passwort vergessen? Aber es befindet sich noch in einem Programm wie gftp? Dann kann ngrep helfen. Zuerst ngrep auf das Netzwerkdevice lauschen lassen, wie das lautet kann aus ifconfig ausgelesen werden und den FTP Port angeben. Danach kann man sich mit dem Server verbinden und sieht den Login im Klartext vorbeihuschen.
    sudo ngrep -d eth1 port 21
    
    interface: eth1 (192.168.1.0/255.255.255.0)
    filter: (ip or ip6) and ( port 21 )
    #
    T 912.103.134.87:21 -> 192.168.1.4:41085 [AP]
      220 ProFTPD 1.3.0 Server (Debian) [::ffef:912.103.134.87]..
    ##
    T 192.168.1.4:41085 -> 912.103.134.87:21 [AP]
      USER benutzerin..
    ##
    T 912.103.134.87:21 -> 192.168.1.4:41085 [AP]
      331 Password required for benutzerin...
    ##
    T 192.168.1.4:41085 -> 912.103.134.87:21 [AP]
      PASS supergeheim23..
    

    Wie wir hier sehen, ist das Passwort des Benuzters “benutzerin” “supergeheim23″.

  3. Vier Zeilen einer Datei, hier von /etc/passwd per Zufall auslesen.
    shuf /etc/passwd -n 4
  4. Das Ziel eines Symlinks (ln) abkürzen mit einem Punkt.
    Wenn das Ziel eines Symlinks (ln) sich im gerade aktuellen Ordner befindet und der Dateiname der selbe sein soll, braucht es keinen Dateinamen.

    ln -s config/database.yml
    
    ls -al database.yml
    lrwxrwxrwx 1 user user 19 2009-07-31 22:52 database.yml -> config/database.yml
    
  5. Wer so wie ich die Programme “dig” oder “host” unter Ubuntu sucht der findet sie im Paket dnsutils.
    aptitude install dnsutils
  6. Mit der Konsolenversion von HandBrake, ein Video in ein ipodtaugliches Video konvertieren.

    HandBrakeCLI -i video.avi -o video_ipod.mp4 -e x264b13  \
    -b 700 -R 44100 -B 128 -2 -w 320
Share/Bookmark

1. August 2009

Ich bin gerade eben über einen Thread im Ubuntuusers.de Forum gestolpert. Dort wird momentan eifrig über Freemail Anbieter diskutiert. Ich als bekennender Googlefanboy habe mein E-Mail Konto selbstverständlich bei Google, mittlerweile sogar komplett inklusive MX-Einträge von virtualpixel.de mit den Google Apps. Aber warum? Immerhin habe ich mit Freunden einen Linux-Root Server im Internet stehen, auf dem selbstverständlich auch ein Mailserver läuft?! Es fing mit dem Problem der Synchronisation meines iPhones an. Damals wurde als Backend Google gewählt.

Ich war sehr beeindruckt, als ich dann das erste Mal die Google Services angeschaut habe. Ein sehr klares und gradliniges Interface und gut durchdachte, neue Funktionen. Ich will mal kurz einige davon etwas genauer vorstellen und sie ein bisschen mit gmx und web.de vergleichen, da ich beide Freemail Anbieter schon genutzt habe.

  • Das ganze Webinterface von Googlemail ist sehr schlicht und gradlinig. Funktional, aber dennoch chic! Ein wichtiger Punkt für mich ist: Das Webinterface nutzt die gesamte Breite des Browserfensters, Mich gruselt es immer, wenn ich die Interfaces von web.de oder gmx.de sehe. Feste breiten, welche dreimal nebeneinander auf meinen Bildschrim passen würden. Ausserdem ist die Hälfte der Webseite “zugemüllt” mit allem Möglichen, was einem beim Arbeiten behindert.
  • Bei Googlemail habe ich momentan 7350MB für mein Postfach zur Verfügung. Bei Web.de sind es 12MB (ist ein altes Postfach, entweder es wurde nie erhöht, oder man hat tatsächlich nur 12MB zur Verfügung..) und bei GMX immerhin 1GB. Ich bräuchte einen Taschenrechner, um mal auszurechnen, wie viele web.de Accounts ich bräuchte, damit alle meine Mails bei denen liegen könnten…
  • Die ganze Oberfläche bei Googlemail ist sehr stark von Ajax durchsetzt, dem Google WebToolkit sei dank. Das macht es sehr komfortabel zu bedienen.
  • Ich habe einen kostenlosen IMAP Zugriff, was bei gmx soweit ich weiß nur kostenpflichtig funktioniert.
  • Ich bekomme pro Tag ca. 120 Spam Mails, davon kommt pro Woche mal ein durch wenn ich ganz doll Pech habe.
  • schreibt man Mails aus dem Webinterface bei gmx.de, hängt selbiger Werbung an die Mail ran…

Ich könnte jetzt noch Stundenlang so weitermachen…

Anfangs habe ich meine Mails von unserem Mailserver nur nach Google weiterleiten lassen und von dort aus unter meiner Adresse versendet, Mittlerweile zeigen die MX Einträge meiner Domain direkt auf Googlemail und mein Mailserver ist komplett außen vor.

Ebenfalls habe ich Anfangs viel meinen lokalen Mailclient genutzt. Da die aktuell verfügbaren Mailclients aber nicht alle Features von Gmail beherschen, bin ich nun mittlerweile zu 80% im Webinterface unterwegs. Obwohl ich zu Hause an meinem PC sitze…

Abgesehen von Freemail bekommt man auch noch ein Adressbuch, ein Kalender, einen Feedreader….usw. Die alle kann man ganz hervorragend mit den diversen Desktopprogrammen synchronisieren. (Wobei ich in den meisten Fällen das Webinterface bevorzuge)

Um das Geschwafel nun nicht noch weiter ausarten zu lassen, mache ich es kurz: ich steh auf Google und seine Services und kann jedem nur raten sie zu benutzen. Was ich aber wirklich gerne wissen würde ist, warum benutzen ihr gmx oder web.de? Gewohnheit? Angst vor der “Datenkrake” (ja, absichtlich in Anführungszeichen….)? Noch nie Googlemail gesehen? Welche Gründe gibt es, Services zu nutzen, die in meinen Augen viel schlechter sind? Ich bin gespannt ;)

Eigentlich bin ich ja eher für funktionelle Oberflächen, die eher weniger verspielt sind. Aber nachdem ich bei einem Freund war, und er mir seinen Mac vorgeführt hat, musste ich doch mal mittels AWN (Avant Window Navigator) dieses Dock nachstellen.
Muss man sich mal vorstellen. ICH! Der immer recht minimalistische Oberflächen mit eher weniger als mehr Spielerei mochte, habe es getan!
So manch einer der mich kennt, wird mich vermutlich fragen ob ich noch in Ordnung bin. :o)
Aber da kann ich beruhigen... das ist derzeit die einzige Ausnahme. ;o)



Und dafür sind natürlich auch Panel und Co verschwunden. :o)

Schon seit langem stört mich das hässliche Grub beim Systemstart. Auch wenn man es zwar mit ein paar Grub-splashes verschönerern kann, wird es dennoch nicht wirklich ansehnlich. Bei der Suche nach etwas ansprecherenden bin ich auf grub2-gfxmenu gestoßen.
Grub2-gfxmenu ist ein Grub2, also die neue Grub-Version, mit der Gfx-menu Erweiterung, die es auch schon für Grub1 gibt. Man hat dort ein Hintergrundbild, eine grafische Zeitanzeige in Form eines Kreises, wann das Standard-Betriebssystem gestartet wird und man kann vor jedem Grub-Eintrag das Logo des Betriebssystems setzen. Insgesamt sieht es also weitaus schöner aus als Grub-legacy.

Installation

Hier fing das Problem schon an, wo kriegt man dieses Programm denn her?
Aus dem Quellcode zu kompilieren ist mit einem 64-bit-Betriebssystem schon etwas anspruchsvoller (Stichwort 32-bit-ChRoot-Umgebung), also schied es für mich aus. Nach längeren Suchen bin ich dann auf ein Zusatzrepository für Arch-Linux gestoßen. Da ich Arch ja auch installiert habe, machte mir dies nix aus, dann ist Grub halt nicht mehr auf Jaunty sondern auf Arch.

Installation unter Arch

Die Installation ist unter Arch eigentlich relativ einfach:
Dieses Repo hinzufügen, dann Grub1 deinstallieren, grub2-gfxmenu-overlay und danach grub2-gfx-menu-overlay installieren.
Danach noch mit

sudo /sbin/grub-install /dev/sda

Grub auf die gewünschte Festplatte installieren.
Danach muss die /boot/grub/grub.cfg entsprechend angepasst werden.

Installation unter Ubuntu

Achtung:
Rumspielen am Boot-Loader ist immer gefährlich. Im schlimmsten Fall kann dann
das Betriebsystem nicht mehr starten! Widersteht also der Versuchung, wenn
ihr nicht wisst, wie ihr notfalls alles wieder rückgangig machen könnt!
Wir übernehmen deshalb, trotz mehrerer positiver Tests, keinerlei Haftung
für diese Anleitung.

Für Ubuntu habe ich leider, erstaunlicherweise, kein PPA gefunden. Wenn man es dort installieren will, muss man es entweder kompilieren, oder auf die Arch-Pakete zurückgreifen.
Um den ganzen Prozess ein bisschen zu vereinfachen, habe ich ein kleines Skript geschrieben, das das jeweils aktuelle Arch-Linux-Paket unter Ubuntu installiert. Hierbei wird allerdings kein .deb erzeugt, ein Upgrade oder ein Löschen von Grub2 ist nicht unter Synaptic oder anderen Paketverwaltungssoftwares möglich!
Dazu muss man zuerst den Installierten Boot-manager deinstallieren und dieses Skript hier mit root-Rechten ausführen.
Danach installiert man Grub2 wieder mit

sudo /sbin/grub-install /dev/sda

auf die gewünschte Festplatte.
Danach muss wieder die /boot/grub/grub.cfg entsprechend angepasst werden.
Nun kann man das Betriebssystem neu starten und sein neues Grub-Menü bewundern.
Es sieht standardmäßig noch recht hässlich aus, aber das lässt sich ändern.
Sollte man Grub2-gfxmenu auch wieder deinstallieren wollen, muss man einfach nur dieses Skript ausführen. Danach muss man allerdings wieder einen anderen Bootloader installieren!

Einstellungen

Neue Themes kann man hier herunterladen:
zum installieren reicht es, das Archiv zu entpacken, und den Ordner nach /boot/grub/themes zu verschieben.
Um das Theme zu benutzen fügt man diese Zeile dem Abschnitt Themes in der /boot/grub/grub.cfg hinzu

set theme="/boot/grub/themes/themename/theme.txt"

und kommentiert die andere aus.
Ganz oben kann man die Auflösung anpassen, allerdings muss man darauf achten, dass das Theme diese Auflösung unterstützt. Dies kann man in der theme.txt im jeweiligen Ordner anschauen.
Wenn man ein Logo seiner Distribution muss man einfach hinter den Namen des Menüs ein

--class "ubuntu"

setzen. Dies kann man mit verschiedenen Distributionen und auch Windows machen.
Die vorhandenen Möglichkeiten sieht man unter /boot/grub/themes/icons
Man kann natürlich auch eigene PNGs hinzufügen.
Dies waren so im wesentlichen die Anpassungsmöglichkeiten, in der theme.txt kann man noch relativ viel am Theme herumbasteln, so kann man beispielsweise die Schriftarten ändern und so Zeugs.

Hier noch ein paar Bilder:

Viel Spaß mit Grub2
Gruß Jonas

In Zeiten der Vorratsdatenspeicherung, Internetstoppschildern und Usertracking auf praktisch jeder Internetseite kommt der Wunsch nach ein wenig Anonymität im Internet auf. Virtuelle Private Netzwerke, kurz VPN, ermöglichen die Einwahl in ein fremdes Netzwerk und bieten so die Chance die eigene Identität hinter der des VPNs zu verstecken. Mit It’sHidden kommt ein recht neues Angebot auf den Markt, das für den Privatgebrauch sogar kostenlos ist und das man mit Ubuntu sehr leicht benutzen kann…

Vorweg ein Hinweis: Ich konnte keine weiterführenden Informationen zu It’sHidden im Internet finden. Die Verbindung zum VPN-Anbieter selber ist zwar verschlüsselt, doch von dort geht es unverschlüsselt weiter wenn die Datenverbindung an sich nicht verschlüsselt ist. Der Betreiber des VPNs hat also theoretisch die Möglichkeit in unverschlüsselt übertragene Daten Einblick zu nehmen. Solange die Vertrauenswürdigkeit von It’sHidden nicht überprüft ist, würde ich persönlich keine Internetseiten ansteuern, die Zugangsdaten nicht via https übertragen. Außerdem bezweifle ich stark, dass sich der Dienst länger hält, irgendwie müssen die Kosten ja gedeckt werden… Aber vielleicht sehe ich einfach zu Schwarz.

Um ItsHidden.com nutzen zu können ist ein Account beim Anbieter nötig. Der Account kann ohne Kosten angelegt werden. Der kostenpflichtige “Paid Account” soll später einmal die Weiterleitung von Ports durch das VPN ermöglichen. Zum normalen Surfen reicht die kostenlose Variante aus. It’sHidden sagt über sich…

ItsHidden.com is the ultimate FREE surfing privacy service on the Internet with huge capacity and no complicated software to install, you already have everything you need on your computer right now!

Um It’sHidden unter Ubuntu ohne großen Aufwand nutzen zu können ist der NetworkManager und ein zusätzliches Plugin für den NM nötig. Dieses kann man direkt aus der Paketverwaltung heraus installieren. Nach der Installation muss der NetworkManager neu gestartet werden. Dazu führt man in einem Terminal die folgenden Befehle aus…

$ sudo apt-get install network-manager-pptp
$ sudo /etc/init.d/NetworkManager restart

Nun kann man die VPN-Verbindung zu It’sHidden einrichten. Man klickt mit der rechten Maustaste auf das Icon des NetworkManagers im Panel und wählt aus dem Popup-Menü die Option “Verbindungen bearbeiten…” aus. Im nun erscheinenden Fenster geht man in den Reiter “VPN” und fügt eine neue VPN-Verbindung ein [1].

Als Typ gibt man nun das “Point-to-Point Tunneling Protocol (PPTP)” an und trägt dann im nächsten Fenster die nötigen Verbindungsdaten ein [2]. Einzig das Gateway “vpn.itshidden.com” und die vorhin benutzen Logindaten zu It’sHidden müssen hier angegeben werden. In den erweiterten Einstellungen [3] darf man nicht vergessen die Option “Point-to-Point Verschlüsselung (MPPE) verwenden” [4] zu aktivieren.

VPN-Zugang zu It'sHidden unter Ubuntu einrichten.

VPN-Zugang zu It'sHidden unter Ubuntu einrichten.

Nun sollte der VPN-Zugang zu It’sHidden vollständig eingerichtet sein. Klick man mit der linken Maustaste auf das Icon des NetworkManagers im Panel, so sollte der Eintrag zu It’sHidden unter “VPN-Verbindungen” auftauchen, klickt man auf den Eintrag wird das Icon des NM kurzzeitig animiert, bis ein Schlosssymbol den vollständigen Aufbau der VPN-Verbinung anzeigt. Über Seiten wie bspw. MeineIPAdresse.de kann man nun schnell überprüfen ob die VPN-Verbindung tatsächlich funktioniert. Zeigt diese Seite nicht mehr an, dass die eigene IP aus Deutschland (oder wo auch immer ihr steckt) kommt, dann steht der VPN-Tunnel.


Comments

Vor ein paar Wochen bin ich auf ein sehr praktisches Tool zur Verwaltung meiner Aufnahmen bei OTR gestoßen. Es heißt auch so (OTR-Verwaltung) und man findet sogar ein DEB Paket auf der Projektseite. Warum das Tool so praktisch ist, soll die folgende Featureliste zeigen:

  • otrkey-Dateien dekodieren
  • avi-Dateien mit Cutlists schneiden (Avidemux und VirtualDub)
  • mehrere Dateien gleichzeitig verarbeiten
  • Cutlists nach dem Schneiden bewerten
  • Cutlists mit Avidemux oder VirtualDub selbst erstellen und hochladen
  • Schnitte vorher mit dem MPlayer betrachten
  • Automatisches Umbenennen der Dateien

Um das Programm in seinem vollen Umfang nutzen zu können, braucht man noch den offiziellen OTR Dekoder und avidemux zum schneiden der Aufnahmen.

Bis dato habe ich das immer per Hand gemacht, v.a. das Schneiden, aber nun lässt sich das bequem mit ein paar Klicks erledigen.

OTR-Verwaltung

Ähnliche Artikel:

  1. [Update2] Losungen der Herrnhuter Brüdergemeine für webOS
  2. [Update2] Palm webOS Emulator unter Ubuntu (9.04 & 9.10)

6 Kommentare

31. Juli 2009

Ziemlich genau eine halbes Jahr nach dem letzten Status-Report des Skype für Linux-Entwicklers “Berkus” meldet sich der selbe Offizielle von Skype nun mal wieder zu Wort und meldet Neues zu Skype für Linux…

Die Arbeiten an der Oberfläche seinen abgeschlossen, Skype kommt mit PulseAudio ab Version 0.9.15 (leider wird diese Version erst in bspw. Ubuntu “Karmic Koala” 9.10, das im Oktober erscheinen wird, enthalten sein) besser zurecht und man will die Video-Fähigkeiten verbessert haben. Zum Release-Datum will sich Berkus lieber nicht äußern…

A quick status update for all of you out there longing for news [...] I know many of you have been waiting for a while for this news – I can’t make any promises about when it’ll be released, but watch this blog for further updates.

Meine Vermutung ist, dass noch mindestens ein halbes Jahr ins Land zieht, bis Skype für Linux in einer neuen Version erscheinen wird. Das für Linux zuständige Team von Skype scheint laut Bugtracker gerade einmal aus vier Personen zu bestehen, da will gut Ding Weile haben.

Eine andere Alternative wäre, dass es keine weitere Skype-Version mehr geben wird. Weder für Linux, noch für Windows. Wäre das schlecht? Ich meine es wäre genial, die Bahn wäre frei für offene Protokolle wie Jabber mit Jingle. Die Funktionalität ist schon lange da, nur gibt es leider mit Empathy bis dato nur einen Client, der Jingle ordentlich implementiert hat. Mit dem Niedergang Skypes könnten so auf Jabber/Jingle aufbauende Alternativen von Null auf Hundert ohne großen Aufwand und Konkurrenz durchstarten.

Aber leider leider, wird das wohl nicht passieren. Die “Drohungen” Skype einzustellen sind wohl nur Vorgeplänkel zum Rechtsstreit zwischen Ebay und Joltid. Das Produkt Skype wird wohl zu wertvoll sein, um es sang und klanglos einzustellen…


Comments

Aus aktuellen Anlass habe ich die Lizenz meiner Beiträge hier überdacht. Bislang standen sie unter Creative Commons BY-NC-SA 2.0, das heißt die Nutzung meiner “Werke” in einem kommerziellen Umfeld war untersagt.

Doch was ist kommerziell? Eine Nachrichtenseite, die Tausende von Lesern pro Tag anzieht und hauptberuflich betrieben wird, sicherlich ja. Ein Blog, das dem Autor via Adsense ein paar Euro im Monat einbringt? Wohl kaum.

Um gar nicht erst eine Grenze ziehen zu müssen, habe ich mich entschieden meine Beiträge unter die Creative Commons BY-SA 3.0 zu stellen. Das heißt, sollte jemand Inhalte von “Linux Und Ich” übernehmen wollen, so muss das abgewandelte Werk wieder unter der CC BY-SA 3.0 veröffentlicht und ein Link zur Quelle gesetzt werden. Ich meine das kommt allen entgegen, die im Internet Inhalte erschaffen.

Liebe Grüße,
Christoph


Comments

Es gibt den Frauentag, den Kindertag und laut Dirk zum 10. Male den „System Administrator Appreciation Day“. Tja, ohne diese guten Seelen im Hintergrund gäbe es z.B. ein hochverfügbares Internet nicht! Also singe ich mal ganz artig: „Hoch solln sie leben, hoch solln sie leben, dreeeeeimaaaal hoch! hoch! hoch!“ :)

Aber wehe, einer von dieser Sorte wagt es, den Tag auch noch zu feiern! :elch:

Heute ist der zehnte “System Administrator Appreciation Day“. Ein Tag zum Feiern? Warum nicht! Denn die Systemadministratoren haben alle Hände voll zu tun und jede Menge Aufgaben.

Heise feiert den Tag auf seine ganz eigene Art und schreibt über Katatrophen aus dem Admin-Alltag ihrer Leser:

Administratoren sind wie Kapitäne. Ihre Schiffe heißen Netzwerk, Server und Router, doch wie echte Seemänner müssen sie sich um den nötigen Proviant kümmern, gefährliche Fahrwasser erkennen und aufkommende Stürme umfahren. Am Morgen überprüfen sie Passagierlisten und horchen auf den Ping der Server. Abends schrubben sie das Vordeck und müssen sich anschließend beim Käptn’s-Dinner auch noch für die eingeschlagenen Kurse rechtfertigen.

Wie auch auf See führen Fehlentscheidung zu fatalen Ergebnissen: Daten gehen über Bord, auf der ausgewählten Route herrscht Gegenwind und einige Passagiere hängen immer seekrank über der Reling. Rettungsmaßnahmen wie Datensicherung oder Neuinstallation erzürnen oft die Mannschaft, die im schlimmsten Fall meutert.

Die Untiefen des Administrator-Alltags erfordern also viel Lernen, meist am praktischen Beispiel einer selbstverschuldeten Katastrophe. Auf den folgenden Seiten erzählen heise-Netze-Leser von ihren Patzern und Fußschüssen.

Happy Sysadminsday!

Außerdem ist dieser Artikel lesenswert und klärt über eventuelle Geschenkideen auf:

Dankbare Nutzer sollten allerdings von eher konventionellen Geschenken wie Socken, Oberhemden, Schlipsen oder gar einem Blumenstrauß Abstand nehmen: Deutlich mehr Dankbarkeit ernten sie mit Technik-Spielzeug neuster Bauart wie es sich beispielsweise bei ThinkGeek findet. Nahrungsmittel-Präsente sollten Koffein enthalten oder einen hohen Zuckeranteil haben. Eine spontane Büro-Party gilt als genehm, aber nicht zwingend erforderlich.

Heute findet der 10. System Administrator Appreciation Day statt. An diesem Tag soll einmal an alle gedacht werden, die "hinter den Kulissen" ihren Dienst tun in dafür sorgen, dass der Rechnerbetrieb reibungslos von statten geht. Was Systemadministratoren tun, zeigt der Wikipedia-Artikel dazu,

Auf der deutschen Seite, die anscheinend nicht mehr gepflegt wird, findet sich dieser Artikel.

Ich habe gerade auf den Seiten der Uni Chemnitz die Unterlagen zur Vorlesung Prinzipien der Systemadministration gefunden und finde sie sehr lesenswert.

30. Juli 2009

Heutzutage hat doch fast jeder ein kleines Netzwerk zu Hause. Auch bei mir stehen diverse kleine Stromfresser herum, welche wie wild um sich blinken und alle nur eine Aufgabe erfüllen.

Wäre es da nicht besser, wenn man alles in einem Gerät hätte?

So hat mich einer meiner Lehrer auf den richtigen PC aufmerksam gemacht: ALIX.

alix1

Dies ist

- ein voll funktionsfähiger Computer
- mit weniger Ressourcen
- kleinem Stromverbrauch
- Massen nicht grösser als ein herkömmlicher Router
- schweizer Produkt
- und (fast) beliebigt erweiter- und kombinierbar

Der PC selbst muss man sich hier zusammenstellen. Je nachdem welches Mainboard man wählt, hat man mehr oder weniger Anschlüsse. Ich habe mich für den Alix2d2 entschieden. Dieser hat zwei miniPCI, zwei USB- und zwei LAN-Anschlüsse.

Als Storage kommt eine 4GB Flash-Karte zum Einsatz, welche in den Tests mehr als gereicht hat.

Das perfekte OS nennt sich IPFire. Dies ist ein Betriebssystem auf Linuxbasis, welches man mit Addons erweitern kann. Deshalb ist es nicht nur eine klasse Firewall, sondern kann auch als VPN-, Mail-, P2P-Server und vieles mehr verwendet werden.

Doch nicht nur das, dank den zwei LAN-Anschlüssen kann das Kästchen auch als Router verwendet werden. Und wenn man sich auch noch eine WLAN-Antenne dazukauft, so darf man auch noch ein WLAN vor den Router hängen :-)

Rundum eine eierlegende Wollmilchsau!