ubuntuusers.de

19. März 2010

Beim stöbern in den Wikibooks stieß ich auf das Linux-Kompendium welches unter http://de.wikibooks.org/wiki/Linux-Kompendium zu finden ist. Neben allgemeinen Linux Themen befasst es sich mit den verschiedenen Benutzergruppen wie Systemverwalter, Netzwerker und dem normalen Benutzer.

Auch die unterschiedlichsten Themen wie z.B. der Kernel, die Programmierung oder GNOME werden behandelt. Daneben werden auch andere Dinge wie die juristischen Aspekte von freier Software beleuchtet. Es lohnt sich mal reinzuschauen ;)

Das Fax ist leider Gottes noch nicht obsolet. Immer wieder muss man doch ein Fax senden oder gar empfangen. Im Büro rentiert sich sicherlich ein Faxgerät, doch zuhause staubt das Ding meist vor sich hin. Auf einen PC mit analogem Modem auszuweichen ist auch nicht gerade eine ideale Lösung, da viele moderne USB-Modems nur noch kastrierte Win-Modems sind, die nur mit speziellen Treibern funktionieren. Und natürlich müsste der PC rund um die Uhr laufen, um ein “unerwartete” Faxe empfangen zu können.

Daher möchte ich mich persönlich gar nicht erst mit Faxgeräten und Modems herumschlagen. Ich möchte Faxe senden und empfangen, ohne dass ich ein zusätzliches Gerät brauche, und wenn möglich soll das ohne laufende Kosten klappen. Geht das? Yep, es geht…

Faxe empfangen

Erstmal der Punkt “wie empfange ich ein Fax ohne ein Faxgerät zu besitzen”. Im Netz tummeln sich zahlreiche Anbieter. Viele davon sind seriös, kosten aber monatlich/jährlich Geld. Andere schreiben etwas von wegen kostenlos auf ihre Page, verlangen später dann doch wieder Geld. Ich glaube auf dem Gebiet “Faxempfang” tummeln sich genauso viele schwarze Schafe wie bei Hausaufgaben-Foren…

Seriös und kostenlos ist der Dienst Arcor PIA basic. Neben 1,5GB Platz für Email oder 50MB Webstorage, ist im kostenlosen Tarif von Arcor auch der Empfang über eine normale Festnetzrufnummer möglich. Man muss kein Arcor-DSL-Kunde (Jetzt ja Vodafon) sein, um an einen PIA Account zu kommen. Unter arcor.de kann sich jeder registrieren. Die Möglichkeit Faxe zu empfangen findet man dann unter dem Menüpunkt “Unified Messaging”.

Arcor Unified Messaging

Ein empfangenes Fax landet automatisch im Email-Postfach von Arcor. Leitet man die Arcor-Emails an seine “normale” Email-Adresse weiter, dann muss man das Ganze nur einmal einrichten, und kann sich danach entspannt zurücklehnen.

Faxe senden

Das Thema Faxe senden ist ein bisschen komplizierter. Zuverlässige kostenlose Dienste gibt es in meinen Augen nicht. Ausserdem muss Geiz nicht immer geil sein. Solange ich keine laufenden Kosten habe, darf ein Fax mich ruhig auch ein bisschen was kosten.

dus.net

Ich persönlich habe gute Erfahrungen mit dem VoIP-Anbieter dus.net gemacht. Die Tarife DUStel 60 und DUStel Starter kosten weder Einrichtungsgebühren, noch monatliche Gebühren. Sie unterscheiden sich nur durch die Taktung und den Preis/Minute. Für das Senden von Faxen ist der Tarif jedoch egal, sucht euch einen aus.

Der Fax-Versand erfolgt über das Webfrontend von dus.net. Man braucht nur das zu faxende Dokument im PDF-Format (Mit GNOME kann man ja aus jedem Programm heraus in eine PDF-Datei drucken) auswählen, die Fax-Nummer des Empfängers eingeben und dann das Fax absenden. Eine Seite kostet an eine deutsche Festnetznummer 18ct.

Das Webfrontend von dus.net

Über dus.net könnte man auch Faxe empfangen, doch dafür ist die Einrichtung einer Telefonnummer nötig. Dies kostet eine Einrichtungsgebühr (Aktuell: 9,90€), sowie eine jährliche Pauschale (Aktuell: 4,90€). Der Vorteil gegenüber Arcor ist, dass man sich eine “richtige” Nummer aus dem eigenen Ortsnetz zuweisen lassen kann.

PamFax

Eine komfortable Alternative zu dus.net wäre bspw. PamFax. Der Anbieter mit Sitz in Deutschland bietet ebenfalls die Möglichkeit Faxe zu Senden sowie zu Emfpangen. Der Versand eines Faxes an eine deutsche Festnetznummer ist mit 9 Cent/Seite deutlich billiger als dus.net

PamFax belässt es nicht nur bei einem Webfrontend. Neben dem Webupload gibt es auch eine Anwendung, über die man sehr bequem Faxe verschicken kann. Seit Anfang März 2010 gibt es diese auch für Linux, wobei PamFax vorbildlich Pakete für zahlreiche Distributionen (Debian, Ubuntu, Fedora, OpenSuse,…) anbietet.

Pamfax unter Ubuntu

(Kleine Anmerkung am Rande: PamFax ist eigentlich kein Programm im klassischen Sinne. Die Anwendung stellt nur mittels XULRunner eine angepasste Webseite in einem abgespecktem Browser da.)

Ihr könnt PamFax für Linux von hier herunterladen. Unter Ubuntu habt Ihr es mit einem Doppelklick auf das .deb-Paket installiert. Optional könnt Ihr noch das Paket python-skype installieren…

$ sudo apt-get install python-skype

…Pamfax kann dadurch die Skype-API ansprechen und Statusmeldungen von Pamfax via Skype senden bzw. empfangen. Nötig ist das jedoch nicht. Nach der Installation des Paketes könnt Ihr Pamfax über “Anwendungen -> Internet -> PamFax senden” starten. Das Senden von Faxen klappt so recht leicht und schnell. Das Empfangen und die sonstigen “Komfort-Funktionen” habe ich nicht probiert. Die Kosten für ein Fax könnt ihr unter pamfax.biz/de/kosten nachlesen.

Vor einem Fallstrick möchte ich bei PamFax jedoch warnen. Vorbezahltes Guthaben – wobei man mindestens 5 Euro einzahlen muss – verfällt nach nur 180 Tagen! Diese Information ist gut versteckt in der englischen Kowledgebase zu finden. Zwar erstattet PamFax auf Anfrage verfallenes Guthaben und man kann den Verfall des Guthabens durch ein Fax an eine ungültige Nummer verhindern.

Das Webfrontend von PamFax

in meinen Augen ist dies leider ein extrem kundenunfreundliches Vorgehen. Ich bräuchte den Dienst nur gelegentlich, muss aber mindestens fünf Euro hochladen und muss dann immer dran denken ein “Mich gibts noch Fax” zu verschicken. Schade eigentlich, denn durch die PamFax-Applikation ist es wirklich bequem den Dienst zu nutzen. Somit ist PamFax eher etwas für Leute die öfters ein Fax verschicken möchten. Bei dem zuvor genannten Dienstleister dus.net kann man sein Guthaben über eine Überweisung in beliebiger Höhe ohne Gebühren aufladen und es verfällt nicht.

18. März 2010

Die 1. Beta von Ubuntu 10.04 verspätet sich um einen Tag

Wie heute von Steve Langasek aus dem Ubuntu Release-Team verkündet, verspätet sich die 1. Beta von Ubuntu 10.04 aus technischen Gründen um einen Tag. Somit wird sie nicht am  Donnerstag den 18.03.2010 sondern am Freitag den 19.03.2010 veröffentlicht werden.

Dear developers,

Owing to some late image rebuilds for a couple of critical issues that we
didn't want to leave our beta users subjected to, validation of 10.04 Beta 1
is still in progress.  This means that Beta 1 will not be released on
Thursday, March 18 as planned; it will be released tomorrow, March 19.

To help us release the beta with confidence tomorrow, please consider
participating in the ISO testing today, as described at
<https://wiki.ubuntu.com/Testing/ISO>.

Also, as you're going through ISO tests, please also help us fill in the
blanks on <https://wiki.ubuntu.com/Testing/Plymouth> so we can complete our
understanding of the remaining boot-time issues affecting Beta 1 and make
Beta 2 truly spectacular!

Thanks,
--
Steve Langasek
On behalf of the Ubuntu release team

    Mozilla möchte mit Firefox natürlich weiterhin so erfolgreich bleiben und den Vorsprung gegenüber anderen Browsern weiter ausbauen. Um dieses Ziel zu erreichen, muss das Internetzugriffsprogramm natürlich weiter verbessert werden, sowohl in der Technik als auch in der Benutzerfreundlichkeit. Die Technik erlernen die Entwickler von anderen Experten, die Nutzungsgewohnheiten der Benutzer müssen jedoch erforscht werden.

    Um letzteres zu tun, wurde im Februar ein Test durchgeführt. Mit den Ergebnissen des Testpilotenteams erhofft sich Mozilla herauszufinden, wie bestimmte Button im Fenster besser platziert werden können.

    Etliche tausende Benutzer waren an diesem Test beteiligt, so dass die Entwickler Blake Cutler und Christoper Jung genügend Arbeit hatten, die Testergebnisse auszuwerten. In den Dateien erhofften sie sich, Anworten auf die folgenden drei Fragen zu finden:

    • Welcher Menüeintrag wird am häufigsten verwendet?
    • Welcher Menüeintrag wird am seltensten verwendet?
    • Wie viel Zeit verbringen Benutzer damit, bestimmte Funktionen in den Menüs zu suchen?

    Die Auswertung der Daten ist nun abgeschlossen und das Team hat die Ergebnisse veröffentlicht. Dabei kam heraus: Der „Tab schließen“ Menüeintrag ist der am häufigsten verwendete im Browser. Nach ihm kommen „neuer Tab“, „zurück“ sowie die Lesezeichen. Schlusslicht ist die Funktion „Character Encoding/UTF-16“.

    Ebenfalls nicht ganz uninteressant finde ich die Analyse, wenn man die Tastenkürzel aus der Statistik herausnimmt. Dadurch gibt es nämlich einige Verschiebungen in der Top 10 der am häufigsten verwendeten Funktionen. Dadurch wird der Spitzenreiter beispielsweise auf Platz 10 verweisen, während die Lesezeichen und „kopieren“ auf die höchsten Plätze springen.

    Ein drittes Diagramm veranschaulicht die Benutzung der Funktionen, wenn man diese in Gruppen teilt. In mehreren Tortendiagrammen werden die Bearbeitungsfunktionen, Lesezeichenfunktionen usw. in einzelne Teilbereiche aufgeschlüsselt.

    Wem diese Aufbereitung der Ergebnisse nicht gefällt, dem steht es frei sich selbst ein Bild zu machen. Mozilla stellt die Rohdaten genau aus diesem Grund frei zum Download bereit und gibt zusätzlich eine Anleitung, wie man diese Daten auswerten kann.

    Ich persönlich erkenne mich in der Statistik ehrlich gesagt nur bedingt wieder. Zwar sind die aufgelisteten Funktionen auch meine persönliche Top 10 (rein vom Gefühl her), allerdings stimmt die Reihenfolge bei der nach Mausklicks sortierten Tabelle nicht mehr mit mir überein. Momentan schließe ich die Tabs hauptsächlich mit einem Mausradklick auf den Tab.

    Es ist leider schon eine etwas längere Zeit her, dass ich Module für Apache nachinstallierte. Ich wusste nur mehr die Variante das in dem conf-File die LoadModule Zeile auskommentiert werden muss. Doch was macht man wenn diese Zeile gar nicht in der Config steht? Richtig, dann braucht man nen anderen Plan. ;)

    Ich hatte nun ewig gesucht da ich dachte, dass man bei einem Server unter Plesk eventuell etwas anders machen müsste. Doch dem ist gar nicht so. Ich musste den Mod “expires” und “headers” noch nachinstallieren dies geht wie folgt:

    • mit SSH auf den Server verbinden
    • sudo a2enmod headers
    • sudo a2enmod expires
    • Apache unter Plesk neustarten

    Schon sind die Module da. Hätte echt nicht gedacht, dass dies auch mit einem Server unter Plesk so ohne weiteres möglich ist.

    Bislang laufen alle unsere Dom0s entweder auf Ubuntu 8.04 oder openSUSE 11.1 oder 11.2. Für einen neuen alten Server wollte ich Ubuntu 9.10 als Basis nehmen, auch um im Mai leichter auf 10.04 wechseln zu können. Bei Ubuntu ist die Xen-Situation nicht besonders rosig: Laut halboffizieller Doku steht weder ein aktueller Xen, noch ein brauchbarer Kernel bereit. Immerhin ein Xend (der Verwaltungsdaemon) in Version 3.3. Erfahrungen seit 3.2 haben gezeigt, dass sich die Schnittstellen kaum noch ändern, so dass der 3.3er Daemon mit dem 3.4er Xen zusammen arbeiten sollte. Denkste.

    Ziel waren zwei Server: Ein 64-Bit-System fürs Büro und ein 32-Bit-System für einen alten (AMD Athlon XP 2000, 512MB, 80GB) Hetzner Rootie (Presse-Testsystem). Beide Systeme wurden zunächst mit einem Ubuntu Minimalsystem ausgestattet. Bei Hetzner geschah dies aus dem Notfall-System per debootstrap (fertige OS-Images werden nur einmal am Tag aufgespielt, was stört, wenn man nach einer abgeschossenen Installation neu aufsetzen möchte) und der Server zuhause wurde per Debian-Installer per PXE-Netboot eingerichtet. Die zwei Möglichkeiten, einen Hetzner-Server mit Ubuntu oder Debian auszustatten — debootstrap und den Debian-Installer im SSH-Modus — erkläre ich bei Gelegenheit im Detail.

    Benötigte Pakete

    Mit dem folgenden Befehl sollten alle Abhängigkeiten aufgelöst werden, die zum Bau von Xen und dem Betrieb einer Dom0 benötigt werden:

    apt-get install rsync screen build-essential bin86 bcc libssl-dev \
          gettext libncurses-dev python python-dev pciutils-dev libx11-dev \
          pkg-config python-twisted bridge-utils gawk

    Unter 32 Bit-Systemen sollte man aus Performance-Gründen noch die angepasste C-Bibliothek installieren:

    apt-get install libc6-xen

    Kernel kompilieren

    Ubuntu selbst bietet einen Kernel für Amazons EC2, der sollte einigermaßen gut auf aktuellen Xen-Versionen laufen. Getestet habe ich es nicht. Stattdessen habe ich selbst drei Kernel kompiliert: Einen für AMD64 mit vollem Dom0-Support und vielen Treibern, einen mit stark abgespeckten Treibern (für 64Bit-DomUs) und einen i686-Kernel mit vollem Dom0-Support und der Möglichkeit, auf älteren Xen-Versionen gestartet zu werden. Die für Xen benötigten Frontend- sowie Backend-Treiber habe ich statisch integriert, was den Vorteil hat, dass an der Konfiguration des Initramfs nichts geändert werden muss. Alle Konfigurationen bieten Verbesserungspotential, beispielsweise beim Abspecken um nicht benötigte Treiber. Hier sei allerdings darauf verwiesen, dass das Entfernen vermeintlich nicht benötigter Funktionen Unresolved Symbols und damit Kompilationsabbrüche zur Folge haben kann.

    Als Kernel kommt hier Gentoos 2.6.31.12 — konkret das Patchset xen-patches-2.6.31-12.tar.bz2 — zum Einsatz. Die verwendeten Patches stammen größtenteils von openSUSEs Xen-Kernel, wurden aber von SuSE-Spezifika befreit. Das macht das Bauen und die Installation einfacher. Gepflegt werden die Patches als eigenes Projekt bei Google Code.

    Meine Konfigurationsdateien:

    Und nun zum Bauen des Kernels, hier für AMD64:

    mkdir xen-patches-2.6.31-12
    cd xen-patches-2.6.31-12
    tar xvjf ../xen-patches-2.6.31-12.tar.bz2
    cd ../linux-2.6.31
    for i in ../xen-patches-2.6.31-12/*.patch1 ; do patch -p1 < $i ; done
    wget -O .config http://cdprojekte.mattiasschlenker.de/Public/Xen-Kernel/config-2.6.31.12-mfs001-xen0-amd64
    make oldconfig
    make
    make install
    make modules_install

    Der Kernel braucht noch ein passendes Initramfs, dieses entsteht mit:

    mkinitramfs -o /boot/initrd.img-2.6.31.12-mfs001-xen0-amd64 2.6.31.12-mfs001-xen0-amd64

    Falls Sie Xen Frontend- oder Backend-Treiber in Module ausgelagert haben, müssen Sie ggf. die Modulliste des Initramfs anpassen!

    Xen Hypervisor installieren

    Ohne Xen nützt der schönste Kernel nichts, also bauen und installieren wir Xen 3.4.2 aus dem offiziellen Tarball von www.xen.org:

    tar xvzf xen-3.4.2.tar.gz
    cd xen-3.4.2
    make xen
    make install-xen

    Bootloader konfigurieren

    Der einfachste Weg ist die Erstellung eines simplen Scriptes /etc/grub.d/50_xen, welches hart kodiert Kernelnamen, Xen-Version und Pfade (Root-Device ist hier /dev/sda4) enthält. Zweimal root=... ist kein Tippfehler, sondern als Workaround für einen kleinen Bug in den Scripten des Initramfs gedacht:

    #!/bin/sh
    exec tail -n +3 $0
    # This file provides an easy way to add custom menu entries.  Simply type the
    # menu entries you want to add after this comment.  Be careful not to change
    # the 'exec tail' line above.
    
    menuentry "Ubuntu 9.10 - Xen 3.4.2 + Linux 2.6.31" {
            insmod ext2
            set root=(hd0,4)
            multiboot /boot/xen-3.4.2.gz
            module /boot/vmlinuz-2.6.31.12-mfs001-xen0-amd64 root=/dev/sda4 ro root=/dev/sda4
            module /boot/initrd.img-2.6.31.12-mfs001-xen0-amd64
    }

    Das Script muss nun noch ausführbar gesetzt werden, sonst wird der neue Eintrag nicht in die GRUB-Konfiguration übernommen!

    chmod a+x /etc/grub.d/50_xen

    In der Datei /etc/default/grub sollten Sie den Standard-Booteintrag auf den neuen Kernel setzen:

    GRUB_DEFAULT="Ubuntu 9.10 - Xen 3.4.2 + Linux 2.6.31"

    Danach rufen Sie update-grub auf um die Bootloader-Konfiguration neu aufzubauen. Rebooten Sie jetzt den Rechner mit Xen und dem neuen Kernel.

    Installation der Xen-Tools

    Die Xen-Tools habe ich in einem frisch entpackten Xen-Tarball kompiliert. Die bei der Installation angegebene Variable ist wichtig, damit die Python-Module in den bei Ubuntu üblichen Pfaden landen. Gibt man diese Variable nicht an, ist es ggf. erforderlich eine Umgebunsvariable PYTHONPATH zu setzen und diese ggf. in das Script /etc/init.d/xend einzubauen:

    rm -rf xen-3.4.2
    tar xvzf xen-3.4.2.tar.gz
    cd xen-3.4.2
    make tools
    make install-tools PYTHON_PREFIX_ARG=

    Wenn alles geklappt hat, lässt sich der Xend starten. Läuft dieser, können die Bootmeldungen des Hypervisors ausgelesen werden.

    /etc/init.d/xend start
    xm dmesg

    Xend in den Runleveln verlinken

    Ich habe Xend vor dem SSH-Server verlinkt, den Start der domU-Instanzen danach. Grund waren Probleme mit dem SSH-Server: Upstart (oder der Xend?) versucht diesen neu zu starten, wenn neue Interfaces auftauchen. Das gelingt nicht immer, so dass ich während meiner Tests häufiger ohne SSH da stand. Auf einem Root-Server ist so etwas natürlich ganz bescheiden.

    update-rc.d xend start 14 2 3 4 5 . stop 80 0 1 6 .
    update-rc.d xendomains start 21 2 3 4 5 . stop 79 0 1 6 .

    Vorbereitung für Routing-Setup

    Achtung: Siehe auch den Nachtrag vom 19. März für ein besseres Setup!

    Provider wie Hetzner oder Strato routen einem Server zugewiesene Subnetze auf dessen primäre IP-Adresse. Deshalb muss bei diesen Servern das Xen-Netzwerk von bridged auf routed umgestellt werden. Achtung: Einige Provider klemmen Server gnadenlos ab, wenn hinter einem Port des Routers bislang unbekannte MAC-Adressen auftauchen. Wer den Xend bei so einem Provider startet, ohne vorher auf routed umgestellt zu haben, fliegt aus der SSH-Verbindung raus und darf mit dem Support telefonieren!

    Zuerst wird die Datei /etc/modules um eine Zeile

    dummy

    für den Dummy-Netzwerk-Adapter erweitert.

    Es folgt die statische Konfiguration der primären IP-Adresse auf eth0 und der ersten nutzbaren IP-Adresse auf dummy. In diesem Fall haben wir das Subnetz 172.16.16.112/ 255.255.255.248 (acht Adressen von .112 bis .119) zugewiesen bekommen, .112 ist hier die Adresse des Netzes, .113 wird auf dummy0 gelegt, .114 bis .118 (fünf von acht Adressen) sind für die domUs nutzbar und .119 ist die Broadcast-Adresse:

    auto lo
    iface lo inet loopback
    
    auto eth0
    iface eth0 inet static
            address 192.168.1.2
            netmask 255.255.255.0
            gateway 192.168.1.1
    
    auto dummy0
    iface dummy0 inet static
            address 172.16.16.113
            netmask 255.255.255.248

    In der Konfigurationsdatei /etc/xen/xend-config.sxp des Xend muss die Einstellung von bridged auf routed umgestellt werden. Das zu routende Device muss explizit angegeben werden:

    # (network-script network-bridge)
    # (vif-script     vif-bridge)
    (network-script 'network-route netdev=dummy0')
    (vif-script     'vif-route netdev=dummy0')

    An dieser Stelle ist ein Neustart des Xend, besser ein Reboot erforderlich. Anschließend können die domUs konfiguriert werden. Die Routing-Informationen werden hierfür in der Client-Config eingetragen:

    kernel = "/boot/vmlinuz-2.6.31.12-mfs006-xenU-minimal-amd64"
    ramdisk = "/boot/initrd.img-2.6.31.12-mfs006-xenU-minimal-amd64"
    memory = 256
    name = "ubuntu-amd64-minimal"
    vif = [ 'ip=172.16.16.114' , 'mac=00:16:00:00:00:27' ]
    disk = [ 'file:/usr/local/xendomains/test01_64/sda1.img,sda1,w' ]
    root = "/dev/sda1 ro"
    extras = "console=hvc0 xencons=tty"

    Daneben ist es erforderlich, die IP-Konfiguration in der /etc/network/interfaces der domU einzutragen -- DHCP möchte ich an dieser Stelle nicht erklären, das würde den Rahmen sprengen.

    Vielen Dank an...

    Anmerkungen:

    • Nie erst Ubuntus Xen-Tools 3.3 installieren und dann diese Anleitung durchführen. Das resultierende Versionsmischmasch wird garantiert kein funktionierendes Netzwerk zur Folge haben!

    • Details zur domU-Konfiguration bei Hetzner folgen

    • Details zur Ubuntu-/Debian-Installation aus Hetzners Rettungssystem folgen

    Wer einen gängigen DSL-Anschluss hat, dem wird in der Regel bei jeder Einwahl eine neue IP-Adresse dynamisch zugewiesen.

    Für manche Shellskripte ist es jedoch erforderlich, die eigene (öffentliche) IP als Variable zu verarbeiten. Bei der Recherche nach einem „Mini-Script“ bzw. Einzeiler stößt man über Suchmaschinen auf viele Lösungen, die leider nicht (mehr) funktionieren, weil hier oft HTML-Seiten diverser Anbieter mit grep oder sed gefiltert werden, diese Seiten jedoch dann und wann ihren Aufbau ändern. Folgende drei Lösungen haben auf meinem Ubuntu Jaunty Jackalope das erwünschte Resultat gebracht, nämlich als Ausgabe nur die IP auszuspucken:

    curl -s http://checkip.dyndns.org/ | grep -o "[[:digit:].]\+"
    # ODER
    curl "http://www.networksecuritytoolkit.org/nst/cgi-bin/ip.cgi"
    # ODER
    w3m -dump http://www.monip.org/ | awk -F': ' '/IP/ { print $2 }'

    Beispiel, um die öffentliche IP in eine Variable zu schreiben:

    PUBIP=`w3m -dump http://www.monip.org/ | awk -F': ' '/IP/ { print $2 }'`
    echo $PUBIP
    229.138.25.77

    Klar muss man sich hier auf die Korrektheit der Angaben eines externen Services verlassen. Wer eine elegantere Lösung kennt, der möge sie bitte hier mit uns teilen.

    Kürzlich erschienener Artikel: Das Klopapier für Linux-Hasser!

    Flattr this


    Als Blogger, Linux User und Mitglied der Piratenpartei hat man es nicht leicht. Hunderte von Blogs und Protokollen wollen jeden Tag gelesen werden, Twitter muss verfolgt werden und gleichzeitig werden einem ständig empfehlenswerte Links per Mail und Jabber zugespielt.

    Gestern habe ich in meinem Blogpost Überblick behalten mit Read It Later über meinen Ansatz, dieser Informationsflut Herr zu werden, berichtet und meinen derzeitigen Workflow vorgestellt.

    Heute interessiert mich, wie ihr die Informationen in den Griff bekommt. Welche Tools benutzt ihr und könnt ihr empfehlen? Welche Methoden habt ihr etabliert um eure Informationen zu filter, zu sortieren, zu archivieren? Oder seht ihr darin einen unnötigen Aufwand und vermeidet diese “Web 2.0 Quellen”?

    Hinterlasst euer Feedback in den Kommentaren oder per Trackback aus euren Blogs. Ich bin gespannt :)

    Ähnliche Posts:

    1. Sind ständige kommunale Arbeitsgruppen ein Irrweg?
    2. So long and thanks for all the fish
    3. Feiertage 2010 für ITler

    17. März 2010

    … und es gibt Tage, an denen die anderen gewinnen.

    Chronik des Tages:

    07:03 Uhr

    Aufgewacht. Eine halbe Stunde zu spät. Ich bin zu müde und zu faul, mich zu hetzen um den Bus eine Viertelstunde später zu erreichen. Was auch nicht nötig ist, da mein offizieller Arbeitsbeginn 09:00 Uhr ist.

    07:20 Uhr

    Festgestellt, dass der Server nach Kernelupdates verlangt. Sie zu installieren war ein großer Fehler. Das WLAN des “Servers” funktioniert nicht mehr. Panik.

    Mehrfaches rebooten nach Änderungen an der /etc/network/interfaces und dem flüchtigen Versuch den Treiber neu zu installieren hilft nichts. Klemme das Kabel vom normalen Rechner ab und an den Server.

    Stelle die IP-Adressen von beiden Interfaces auf die gleiche IP und fahre das WLAN mit ifdown ra0 herunter. Es läuft, aber meine Freundin wird sich nicht freuen, wenn Sie später nicht ins Netz kommt.

    08:20 Uhr

    Sitze im Bus. Mache den MP3-Player an.

    08:21 Uhr

    MP3-Player hört auf Musik wiederzugeben – er hat sich aufgehängt. Ich habe natürlich keine Büroklammer mit, mit der ich den Reset-Knopf drücken könnte.

    09:10 Uhr

    Fahre per SSH das ra0-Interface hoch. Mit immer noch der gleichen IP wie bei eth0. Sehe im IRC wie sich mein Rechner nach ein paar Minuten mit einem Ping timeout verabschiedet. Dummer Fehler.

    ***

    Scheisstag, ist da glaube ich eine wirklich zutreffende Beschreibung.

    21:29 Uhr

    Der Server läuft wieder. Nach etwas Arbeit und einer diesmal fachmännisch durchgeführten Installation mit checkinstall und einer etwas mühseligen Entfernung eines alten rt2860-Treibers… Ach ja, ich habe dann meine Config auch mal von WPA auf WPA2 umgestellt…

    Nachdem ich neulich schon Apt-linker vorgestellt habe, entdeckte ich heute bei Web Up8 zwei weitere interessante Firefox-Erweiterungen zum Thema Linux-Shell: TerminalRun und FoxRunner. Letztere ist derzeit noch im experimentellen Stadium und meiner Meinung nach noch nicht ganz ausgereift.Ich habe mal ein kleines Filmchen gedreht, welches die Funktionen von TerminalRun demonstriert:

    [Das Video ist im Feed oder Planeten möglicherweise nicht sichtbar]

    Mit TerminalRun lassen sich also beliebige Kommandos aus Firefox heraus mit einem Rechtsklick starten (“Run in terminal”) und ggf. zuvor bearbeiten (“Edit script”). Apt-Befehle werden direkt mit apturl geöffnet und möglicherweise gefährlichen Befehlen werden nicht direkt ausgeführt, sondern müssen zuvor extra bestätigt werden.

    Ein, wie ich finde, recht praktisches Add-on für den Feuerfuchs. Wer das Terminal aber ohnehin ständig geöffnet hat, dürfte mit der Kombination “Markieren -> Einfügen mit Klick auf das Mausrad im Terminal” aber immer noch schneller sein.


    Comments

    Ich habe gerade einen Schwung von etwa 20 meiner Artikel aus den Jahren 2006 bis 2008 hochgeladen. Alle stammen aus den Zeitschriften PC!Linux und linuxlife des WEKA-Verlages, der unter www.magnus.de residiert. linuxlife wurde Mitte 2009 auf Eis gelegt und ist derzeit auch im Weka-Onlineshop nicht nachzubestellen. Wahrscheinlich wird die Serie jedoch mit leicht verändertem Konzept bald fortgesetzt — ich wünsche es mir jedenfalls, denn das Team war nett, die Leserschaft kommunikativ und das Heft durfte Themen aller Schwierigkeitsgrade abbilden.

    Wie dem auch sei: Die hochgeladenen Artikel findet Ihr unter cdprojekte.mattiasschlenker.de/Public/Artikel/, ich erspare es mir, jeden Artikel einzeln zu verlinken. Naturgemäß sind zwei bis vier Jahre alte Artikel nicht gerade die aktuellsten. Alles mit Workshop-Charakter ist daher sehr vorsichtig zu behandeln. Immerhin sind einige “zeitlose” Artikel dabei, wie die 64Bit-Einführung (PDF) (wer Flash-Probleme hat, wird einen 32Bit-Chroot zu schätzen wissen) oder die Einführung in Cygwin incl. X11 (PDF) sowie die beiden Artikel zum Thema PXE- und TFTP-Boot (PDF) oder zur freien Suchmaschine Yacy (PDF). Einige andere Artikel bspw. zum ersten EeePC spiegeln eher den Zeitgeist wider und lesen sich schon nach gut zwei Jahren wie Erinnerungen aus einer längst vergangenen Zeit…

    Daneben hat Magnus.de selbst einige meiner Artikel online gestellt, ganz aktuell beispielsweise zu Grub 2 als Universalbootloader auf Linux- und Windows-Systemen (HTML) (trägt als Zeitstempel der Einstellung den 30. März 2010 :-) ) oder dessen Vorgänger auf Basis von Grub 0.97 (HTML).

    Manchmal ist es interessant zu wissen, was eine CPU wirklich kann. Kann meine CPU 64bit? Kann sie Virtualisierung?

    Unter Linux bekommt man die Informationen mit Hilfe von

    [root@hanswurst ~]# cat /proc/cpuinfo
    processor       : 0
    vendor_id       : GenuineIntel
    cpu family      : 6
    model           : 23
    model name      : Intel(R) Core(TM)2 Quad CPU    Q9550  @ 2.83GHz
    stepping        : 10
    cpu MHz         : 1998.000
    cache size      : 6144 KB
    physical id     : 0
    siblings        : 4
    core id         : 0
    cpu cores       : 4
    fdiv_bug        : no
    hlt_bug         : no
    f00f_bug        : no
    coma_bug        : no
    fpu             : yes
    fpu_exception   : yes
    cpuid level     : 13
    wp              : yes
    flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe nx lm constant_tsc pni monitor ds_cpl vmx smx est tm2 cx16 xtpr lahf_lm
    bogomips        : 5670.45

    Interessant dabei ist der Eintrag “flags”. Beispielsweise bedeutet “lm” 64bit (Long Mode) – ist ja auch quasi direkt ersichtlich ;-) – “ht” -> Hyper Threading oder “vmx” ist die Virtualisierung.

    Aber was bedeuten all die anderen flags ?

    (sorry, das ganze Ding wollte ich nicht übersetzen)

    flag meaning
    3DNOW A multimedia extension created by AMD for its processors, based on / almost equivalent to Intel’s MMX extensions
    3DNOWEXT 3DNOW Extended. Also known as AMD’s 3DNow!Enhanced 3DNow!Extensions
    APIC Advanced Programmable Interrupt Controller
    CLFSH/CLFlush Cache Line Flush
    CMOV Conditional Move/Compare Instruction
    CMP_Legacy Register showing the CPU is not Hyper-Threading capable
    Constant_TSC on Intel P-4s, the TSC runs with constant frequency independent of cpu frequency when EST is used
    CR8Legacy ?
    CX8 CMPXCHG8B Instruction. (Compare and exchange 8 bytes. Also known as F00F, which is an abbreviation of the hexadecimal encoding of an instruction that exhibits a design flaw in the majority of older Intel Pentium CPU).
    CX16 CMPXCHG16B Instruction. (CMPXCHG16B allows for atomic operations on 128-bit double quadword (or oword) data types. This is useful for high resolution counters that could be updated by multiple processors (or cores). Without CMPXCHG16B the only way to perform such an operation is by using a critical section.)
    DE Debugging Extensions
    DS Debug Store
    DS_CPL CPL qualified Debug Store (whatever CPL might mean in this context)
    DTS Could mean Debug Trace Store or Digital Thermal Sensor, depending on source
    EIST/EST Enhanced Intel SpeedsTep
    FXSR FXSAVE/FXRSTOR. (The FXSAVE instruction writes the current state of the x87 FPU, MMX technology, Streaming SIMD Extensions, and Streaming SIMD Extensions 2 data, control, and status registers to the destination operand. The destination is a 512-byte memory location. FXRSTOR will restore the state saves).
    FXSR_OPT -unknown-
    HT Hyper-Transport. Note that the same abbreviation might is also used to indicate Hyper Threading (see below)
    HTT/HT Hyper-Threading. An Intel technology that allows quasi-parallel execution of different instructions on a single core. The single core is seen by applications as if it were two (or potentially more) cores. However, two true CPU cores are almost always faster than a single core with HyperThreading. This flag indicates support in the CPU when checking the flags in /proc/cpuinfo on Linux systems.
    HVM Hardware support for virtual machines (Xen abbreviation for AMD SVM / Intel VMX)
    LAHF_LM Load Flags into AH Register, Long Mode.
    LM Long Mode. (64bit Extensions, AMD’s AMD64 or Intel’s EM64T).
    MCA Machine Check Architecture
    MCE Machine Check Exception
    MMX It is rumoured to stand for MultiMedia eXtension or Multiple Math or Matrix Math eXtension, but officially it is a meaningless acronym trademarked by Intel
    MMXEXT MMX Extensions – an enhanced set of instructions compared to MMX
    MON/MONITOR CPU Monitor
    MSR RDMSR and WRMSR Support
    MTRR Memory Type Range Register
    NX No eXecute, a flag that can be set on memory pages to disable execution of code in these pages
    PAE Physical Address Extensions. PAE is the added ability of the IA32 processor to address more than 4 GB of physical memory using Intel’s 36bit page addresses instead of the standard 32bit page addresses to access a total of 64GB of RAM. Also supported by many AMD chips
    PAT Page Attribute Table
    PBE Pending Break Encoding
    PGE PTE Global Bit
    PNI Prescott New Instruction. This was the codename for SSE3 before it was released on the Intel Prescott processor (which was later added to the Pentium 4 family name).
    PSE Page Size Extensions. (See PSE36)
    PSE36 Page Size Extensions 36. IA-32 supports two methods to access memory above 4 GB (32 bits), PSE and PAE. PSE is the older and far less used version. For more information, take a look at [1].
    SEP SYSENTER and SYSEXIT
    SS Self-Snoop
    SSE Streaming SIMD Extensions. Developed by Intel for its Pentium III but also implemented by AMD processors from Athlon XP onwards
    SSE2 Streaming SIMD Extensions 2. (An additional 144 SIMDs.) Introduced by Intel Pentium 4, on AMD since Athlon 64
    SSE3 Streaming SIMD Extensions 3. (An additional 13 instructions) introduced with “Prescott” revision Intel Pentium 4 processors. AMD introduced SSE3 with the Athlon 64 “Venice” revision
    SSSE3 Supplemental Streaming SIMD Extension 3. (SSSE3 contains 16 new discrete instructions over SSE3.) Introduced on Intel Core 2 Duo processors. No AMD chip supports SSSE3 yet.
    SSE4 Streaming SIMD Extentions 4. Future Intel SSE revision adding 50 new instructions which will debut on Intel’s upcoming “Nehalem” processor in 2008. Also known as “Nehalem New Instructions (NNI)”
    SVM Secure Virtual Machine. (AMD’s virtualization extensions to the 64-bit x86 architecture, equivalent to Intel’s VMX, both also known as HVM in the Xen hypervisor.)
    TM Thermal Monitor
    TM2 Thermal Monitor 2
    TSC Time Stamp Counter
    VME Virtual-8086 Mode Enhancement
    VMX Intel’s equivalent to AMD’s SVM
    XTPR TPR register chipset update control messenger. Part of the APIC code

    HTML5 ist im Anmarsch und hat viele tolle Neuerungen im Gepäck. Eine davon ist zum Beispiel das video-Tag, Videos abspielen direkt im Browser, ohne Flash, ohne 100% CPU-Last. Klingt soweit ganz nett und so, als ob man es haben will. Ein kleines Problem gibt es bei der ganzen Geschichte aber noch: Es wurde sich nicht auf einen, sondern auf zwei Codecs geeinigt: OggTheora und H2.64! Was bedeutet das?

    Machen wir erst einmal eine Bestandsaufnahme welcher Browser welchen Codec unterstützt:

    • Safari: H.264
    • Google Chrome: H.264
    • IE 9 Preview: H.264
    • Firefox: OggTheora
    • Opera: OggTheora

    UPDATE: Ich habe nun oben in die Brwoserliste auch Opera mit aufgenommen. Ich hatte ihn schlicht und ergreifend vergessen. Allerdings spielt es meiner Meinung nach kaum eine Rolle, welcher Browser noch OggTheora unterstützt, solange Youtube und Vimeo auf H.264 setzen.

    Dort sieht man schon eine gewisse Tendenz.  Schauen wir uns nun mal an, welche bedeutenden Videoportale im Internet auf HTML5-Videos setzten und welchen Codec Sie benutzen:

    • Youtube: H.264
    • Vimeo: H.264

    Spätestens mit Youtube.com dürfte klar sein wohing die Reise geht: Videos in H.264. Warum also benutzt Firefox nicht auch H.264? Eventuell hat OggTheora eine bessere Qualität bei gleicher Bitrate? Nein, Da gewinnt ebenfalls H.264. Das Problem liegt in den Lizenzen. Der H.264 Codec ist Lizenzpflichtig und da man bei Firefox sich die Gebühren nicht leisten kann, bzw. sich aus ideologischen Gründen nicht leisten will, damit der Firefox Browser weiterhin eine freie Software bleibt, hat man sich für den freien OggTheora Codec und gegen h.264  entschieden.

    Mal ganz provokativ gefragt, was hat man denn nun davon? Ich verstehe die Motivation welche dahinter steht/stand total, aber was bringt es mir, wenn die beiden größten und populärsten Videoportale der Welt auf H.264 setzen, ebenso wie ein Großteil der Browser? Youtube wird sicherlich nicht anfangen, die Videos in zwei Formaten vorzuhalten, warum auch? Schließlich gehört zuletzt Youtube zu Google und die wiederum haben einen kompatiblen Browser.

    Bleibt also nur die Möglichkeit über eine Firefox Extension oder ein Plugin den Codec selber zu impementieren. Für mich stellt das natürlich kein Problem da, aber was ist mit dem Feld-Wald-Wiesen-Benutzer? Youtube wird ihm in absehbarer Zeit sagen: Sorry, dein Browser kann keine HTML5 Videos wiedergeben, benutze doch bitte Google Chrome. Und er wird es machen, denn wer will schon einen Browser auf dem kein Youtube läuft? Zum Thema Plugins: “Was genau sind eigentlich diese Extensions?” Höre ich schon meine Mutter fragen. (Ich gebe zu, dieses Szenario ist ein wenig überspitzt, aber ich denke meine Intention ist klar geworden. Youtube wird definitiv noch einige Zeit weiter auch in Flash ausliefern.)

    Alternativ könnte man die im System schon vorhanden Codecs benutzen, die meist eine Wiedergabe von h.264 Video unterstützen, man behält aber das gleiche Problem wie bei den Plugins.

    Wie schon gesagt, ich verstehe die Entscheidung der Mozilla Foundation und bin durchaus auch ein Befürworter von freier Software, aber wenn Firefox den Einstieg in HTML5 nicht verpassen will, muss eine Möglichkeit geschaffen werden die es jedem Firefoxbenutzer auf einfachste Weise ermöglicht den H.264 Codec in seinem Browser nachzurüsten, ansonsten heißt es bald “Sendeschluss” um dann schlussendlich die Analogie zum Eingangsbild zu ziehen ;)

    Hier noch ein paar Links zum Nachlesen:

    16. März 2010

    Ped ist eine komfortable Entwicklungsumgebung für Python auf einem S60-Handy (PyS60) und eignet sich sehr gut für das Entwickeln unterwegs. Zu Hause möchte ich aber lieber meinen Computer zum Programmieren benutzen. Über die Bluetooth-Konsole bekommt man zwar ein Terminal, mit dem man Anweisungen über den PC auf dem Handy ausführen kann, es eignet sich aber nicht dazu, ganze Programme zu testen. Es ist nämlich ganz schön ermüdend, wenn man das Skript am Computer schreibt, es mehrmals über USB oder Bluetooth auf das Telefon überträgt, um es dann dort mit der Python-Shell zu starten. Einfacher und schneller geht es mit den PUTools.

    Die PUTools installieren

    Ich habe PUTools unter Ubuntu 9.10 installiert, was wirklich nicht sehr schwer war. Unter Karmic Koala benötigt man im Prinzip nur python-serial, alles andere dürfte schon installiert sein:

    sudo apt-get install python-serial

    Anschließend benötigt man die PUTools, die man am besten in sein Home-Verzeichnis entpackt. Daher wird nun davon ausgegangen, dass die Dateien in ~/putools liegen. Danach muss man die Datei ~/putools/pcfiles/sync.config konfigurieren, indem man unter der Variable COM_PORT seinen bevorzugten Bluetooth-Port einträgt:

    COM_PORT = '/dev/rfcomm0'

    Außerdem sollten noch Port und Kanal von RFCOMM unter /etc/bluetooth/rfcomm.conf definiert werden:

    #
    # RFCOMM configuration file.
    #
     
    rfcomm0 {
    	# Automatically bind the device at startup
    	bind no;
     
    	# Bluetooth address of the device
    	device 00:11:22:33:44:55;
     
    	# RFCOMM channel for the connection
    	channel	3;
     
    	# Description of the connection
    	comment "E71";
    }

    Die Device-Nummer des Gerätes erfährt man mit dem Befehl hcitool scan:

    christian@Unaha-Closp:~$ hcitool scan
    Scanning ...
    	 00:11:22:33:44:55	Emil71

    Nun muss noch das Telefon vorbereitet werden. Damit Handy und PC sich kennenlernen, muss man sie bekannt machen (Pairing). Das erledigt man am Besten mit dem Bluetooth-Applet in Gnome, in dem man die Datei ~/putools/phpush.py in das Verzeichnis E:\Python auf der Speicherkarte des Handys überträgt. Außerdem müssen noch die Dateien im Ordner ~/putools/libs/ nach E:\Python\lib kopiert werden.

    Das ganze ohne Applet

    Wer kein Gnome oder kein Bluetooth-Applet zur Verfügung hat, kann das Ganze auch zu Fuß im Terminal machen. Dazu muss aber obexftp installiert sein:

    sudo apt-get install obexftp

    Ob eine Bluetooth-Verbindung mit obexftp sauber funktioniert, kann man erstmal mit folgendem Kommando testen:

    obexftp -b 00:11:22:33:44:55  -l

    Die Option -b besagt, dass ObexFTP über Bluetooth auf das Telefon zugreifen soll, danach folgt dessen Bluetooth-ID mit der Option -l zum Auflisten des Ordnerinhalts. Die Ausgabe des Befehls sollte also die oberste Verzeichnisstruktur des Handys zeigen. Falls das nicht klappt, und das Handy nach einer PIN für die Bluetooth-Verbindung verlangt, muss man den PIN erstmal als Superuser Root vereinbaren:

    sudo -s
    echo "00:11:22:33:44:55 1234" > /var/lib/bluetooth/11\:AA\:22\:BB\:33\:CC/pincodes

    Nachdem man mit dem Befehl sudo -s in die Root-Shell geschlüpft ist, hinterlegt man nach folgendem Schema den PIN:

    echo "<Bluetooth-ID Handy> <PIN>" > /var/lib/bluetooth/<Bluetooth-ID PC>/pincodes

    Die Bluetooth-ID des Handys ermittelt man mit hcitool scan, wie schon weiter oben gezeigt, für die Bluetooth-ID des PCs reicht ein ls -l /var/lib/bluetooth aus. Den PIN kann man frei wählen, in diesem Fall ist es 1234, und wird in der Datei pincodes hinterlegt. Wenn das Handy wieder nach der PIN zur Bestätigung einer Bluetooth-Verbindung fragt, gibt man in diesem Fall 1234 ein.

    Zurück als normaler User kann man dann die Datei phpush.py auf das Handy kopieren:

    ~/putools$ obexftp -b 00:11:22:33:44:55 -c E: -c Python -p phpush.py

    Dabei steht die Option -c für den Pfad zum Ordner, in dem die Datei abgespeichert werden soll. Na gut, genauer gesagt wird das Arbeitsverzeichnis auf dem Telefon gesetzt, was in diesem Fall E:\Python ist. Mit der Option -p wird die Datei phpush.py an den Ordner Python auf Laufwerk E:, was in diesem Fall die Speicherkarte ist, gesendet. Dann fehlen noch die Dateien im Ordner ~/putools/libs/, die nach E:\Python\lib kopiert werden sollen:

    ~/putools$ obexftp -b 00:11:22:33:44:55 -c E: -c Python -C lib -p libs/*.py

    Mit der Option -C legt ObexFTP den neuen Ordner \lib an, falls er noch nicht vorhanden ist.

    Weiter mit PHPush

    Wenn das erledigt ist, startet man Push, die Python Utility Shell:

    ~/putools$ cd pcfiles/
    ~/putools$ rfcomm listen /dev/rfcomm0 3 ./push

    Dazu wechselt man zuerst in das Verzeichnis pcfiles/, in dem das Programm push liegt. Das Bluetooth-Protokoll RFCOMM emuliert an /dev/rfcomm0 eine serielle Schnittstelle, von der aus auf Kanal 3 gelauscht wird, ob ein weiteres Bluetooth-Gerät bereit ist. Daher ist es jetzt an der Zeit, die PyS60-Shell auf dem Telefon zu starten und das Programm phpush.py zu laden. Nachdem man den eigenen Rechner als Gegenstelle ausgewählt hat, startet push und man hat eine simple Python-Shell auf dem Desktop, deren Befehle auf dem Handy ausgeführt werden.

    Das scheint sich erstmal nicht großartig von der “normalen” Bluetooth-Konsole zu unterscheiden, hat aber mit den Shell-Kommandos sync und run einen entscheidenden Vorteil: Der Upload ist einfacher und man muss seine Skripte zum Testen nicht mehr umständlich über das Telefon starten. Das Skript kann einfach im Ordner ~/putools erstellt und dann mit dem Befehl sync in Push auf das Telefon übertragen werden. Nach Abschluss der Synchronisation startet man das Skript mit dem Befehl run test.py, was man auch auf dem Bild oben sehen kann.

    logo2010

    Ein Stück weit, darf hier ruhig auch etwas Privates einziehen. Am Sonntag 14. März war ich zum ersten Mal zu Besuch bei den Chemnitzer Linuxtagen. Die knappen 2 Stunden mit dem Auto habe ich morgens um halb 8 auf mich genommen :) Ich muss sagen ich war relativ begeistert.

    IMG_0215

    Nach der Ankunft, sah ich mich erst etwas in der Halle um, besuchte Jan am Debian-Stand und liess mich erstmal von durchweg freundlichen Projektvertretern in ihr (mir meistens bereits bekanntes) Projekt einführen.

    IMG_0213

    Darauf folgte eigentlich ein Marathon aus Vorträgen. Durch einen Umstand konnte ich mich leider nur Sonntags den Vorträgen unterziehen. Aber trotzdem gefielen mir die, die ich sah, sehr gut.

    1. Anonymität im Internet (TOR, i2P und grundsätzliches zu Daten)
    2. Virtual System Cluster mit KVM und Pacemaker (B1-Systems. Für mich teils interessant für Arbeit. Thema Virtualisierung)
    - Mittagspause-
    3. Auf dem Weg zum Intrusion Detection System der nächsten Generation (IDS war ein bisschen Unglücklich gewählt. Sehr theoretisch im Bezug auf Social Engineering)#
    4. MySQL Backups – Best Practices (Ein Referent mit polnischer Herkunft klärte mich über grösstenteils alle Backuplösungen auf. Hot / Cold / Txt / Binary / Differentiell)
    5. Computerviren und Linux (Sehr sehr nice gewesen. Haufen neue Erkenntnisse gehabt)

    Im generellen auch netten Kontakt mit den unterschiedlichsten Linux-Anwendern gehabt. Linux@Grundschule Linux@HP und ähnliches.
    Werd ich nächstes Jahr gerne wieder besuchen. Vielleicht sogar das ganze WE.

    Lange habe ich gezögert, aber gestern dann doch nicht widerstehen können. Und so bin ich nun Besitzer eines O2-Surfsticks “Prepaid”. Diesen möchte ich verwenden, um mein MacbookPro4,1 mit Ubuntu 9.10 ins Netz zu bringen, wenn ich zB grad im Zug sitze. Zum Stick habe ich die Version “Dayflat” genommen. Man bezahlt 3,50 und kann dann den ganzen Kalendertag im Netz surfen. Sogar Skype ist mittlerweile bei O2 (sowie Fonic) erlaubt.

    Lange habe ich gezögert, aber gestern dann doch nicht widerstehen können. Und so bin ich nun Besitzer eines O2-Surfsticks “Prepaid”. Diesen möchte ich verwenden, um mein MacbookPro4,1 mit Ubuntu 9.10 ins Netz zu bringen, wenn ich zB grad im Zug sitze. Zum Stick habe ich die Version “Dayflat” genommen. Man bezahlt 3,50 und kann dann den ganzen Kalendertag im Netz surfen. Sogar Skype ist mittlerweile bei O2 (sowie Fonic) erlaubt.

     

    Surfstick anschließen

    Auf dem Stick steht ZTE MF100 (das ist wohl der Chipsatz). Der Befehl lsusb liefert folgenden Eintrag:

    Bus 002 Device 007: ID 19d2:2000 ONDA Communication S.p.A.
    

    Wenn man ihn per USB mit dem Rechner verbindet, so taucht er zunächst “nur” im Dateimanager als USB-Platte auf. Jetzt muss man einfach nur den Stick auswerfen und ca 30 Sekunden warten. Dann aber erkennt Ubuntu den Stick als USB-Modem. Im Netzwerkmanager kann man nun einen neuen Eintrag für “Mobiles Breitband” auswählen. In den Einstellungen wähle ich O2. Leider kennt der Manager diese “Dayflat” noch nicht. Daher muss bei APN pinternet.interkom.de eingetragen werden. Nachdem der Wizard durchgelaufen ist, klickt man nochmals mit der rechten Maustaste auf das Netzwerk-Icon im oberen Panel und wählt “Verbindungen bearbeiten” und überprüft die Einstellungen:
    Networkmanager o2-Surfstick
    Die Nummer sollte mit *99# richtig sein.

     

    Guthaben aufladen

    Da es sich um einen “PrePaid”-Stick handelt, muss zunächst Guthaben auf die Karte geladen werden. In Tankstellen und KIOSKs kann man sich ja diese Guthabenkarten kaufen. Auf der Karte ist eine mehrstellige Zugangsnummer freizurubbeln, welche anschließend für den Stick eingegeben werden muss. Hierzu bringt der Stick eine eigene Software für Windows und Mac OSX mit, die unter Linux aber nicht läuft. Daher muss man hier einen kleinen Umweg gehen und das Guthaben direkt mit einem Handy freischalten. Hierzu legt man die SIM-Karte des Surfsticks in ein Handy, ruft die kostenlose Nummer 5667 an und wählt 1 für “Konto aufladen”. Jetzt muss die freigerubbelte Zugangsnummer eingegeben und mit # bestätigt werden. Wenn man kurz wartet, wird das Guthaben per SMS bestätigt (das kann schon mal 15 Minuten dauern).
    Anschließend kommt die SIM-Karte zurück in den Surfstick, und schon kann’s losgehen.

     

    Surfen

    Zum Testen trenne ich alle bestehenden Verbindungen, klicke dann auf das Networkmanager-Icon im oberen Panel und wähle “o2 connection” aus. Nach 4 Sekunden bin ich mit dem Netz verbunden und kann surfen.

     
    Probleme:
    Ich hatte hier das Problem, dass nach erfolgreicher Verbindung mit dem Netz die DNS-Auflösung nicht mehr funktioniert. Ich kann zwar IP-Adressen anpingen, jedoch keine “Namen” wie www.produnis.de. Lösen kann man dieses Problem, indem man mit root-Rechten die Datei /etc/resolv.conf editiert (die bei mir leer war), und dort einen Nameserver seiner Wahl einträgt, z.B.

    sudo vim /etc/resolv.conf

    nameserver 193.189.244.225
    nameserver 193.189.244.206
    

    Nach dem Speichern ist die Änderung direkt aktiv, und alles funktioniert wieder wie gewünscht.

     
    Netzstärke
    Diesen Beitrag hier schreibe ich übrigens gerade mit dem Stick. Hier im Ruhrgebiet (derzeit sitze ich in Witten) hab ich recht guten Empfang. Heute Nachmittag muss ich mit der Bahn nach Hamburg fahren. Ich bin schon jetzt gespannt, wie lange ich wo welchen Empfang habe – ich werd meine Erfahrungen dann hier ergänzen.

     
    UPDATE:
    Ich sitze im Zug, und es ist so, dass man in der Nähe von Bahnhöfen und kleinen Siedlungen durchaus langsamen Empfang hat. Dazwischen ist das Netz allerdings meistens nicht vorhanden – Handy auch nicht. Naja, wenn man so die ganzen Wälder und Felder sieht fragt man sich schon, für wen die hier ne Antenne aufstellen sollten…

     
    UPDATE 2:
    Die hier vorgestellte Methode funktioniert auch wunderbar unter Ubuntu 10.04 Lucid Lynx. Unter Lucid muss der Stick auch nicht erst extra per Nautilus ausgeworfen werden, Lucid macht das automatisch. Auch liefert der Befehl lsusb einen leicht veränderten Eintrag, nämlich

    Bus 002 Device 006: ID 19d2:0031 ONDA Communication S.p.A. ZTE MF636
    

     

    Links:

    Nachdem ich an den Linux-Tagen zu Chemnitz immer wieder der Alpha-Version von Ubuntu 10.04 begegnet bin, wollte ich es doch noch etwas genauer wissen und probierte es zu Hause an meinem neuen Netbook S12 von Lenovo aus. Den “produktiven” Rechner wollte ich dazu nicht verwenden. Dazu tippte ich auf [ALT] und [F2] und befahl dann

    update-manager -d

    Damit beginnt das System mit der Vorbereitung eines Distributionsupdates. Ich möchte darauf hinweisen, dass es sich bei der getesteten Version um eine Entwicklerversion handelt, die nicht für produktive Zwecke gedacht ist. Also nur dann nachmachen, wenn ein Testgerät zur Verfügung steht, bei dem es unerheblich ist, wenn es ausfällt.

    Der Update selbst dauerte ungewöhnlich lange, über zwei Stunden und es passierten einige Fehler. Die darf es bei diesem Versionsstand auch noch geben.

    Schliesslich meldete der Upgrade-Manager, dass der Upgrade nicht durchgeführt werden konnte und nun der ursprüngliche Zustand wieder hergestellt würde.

    Die betraf in meinem Fall wohl bloss die Pakete, die nicht korrekt installiert werden konnte, denn nach wenigen Sekunden bekam ich dann diesen Dialog zu Gesicht:

    Damit wurde der eigentliche Abschluss des Upgrades unterbrochen, denn die alten Pakete wurde nicht sofort entfernt. Die habe ich dann per Hand in der Konsole mit den beiden Befehlen

    sudo apt-get dist-upgrade und sudo apt-get autoremove

    vollständig weggebracht. Ansonsten scheint alles zu funktionieren, ausser dass – wie immer – die Fremdquellen aus der Konfigurationsdatei von APT entfernt oder auskommentiert wurden. Der erste Eindruck wirkt nicht besonders, weil mir persönlich halt die Farbzusammenstellung überhaupt nicht passt. Aber das lässt sich ja leicht ändern, ausserdem ist das Geschmackssache. Ganz schlimm finde ich den halb-transparenten Hintergrund der Standard-Shell. Der passt zu Herren, die sich schminken…

    Weiter gefällt mir Thunderbird in der dritten Version, wie sie nun bei 10.04 zur Verfügung steht, nicht. Ich werden dann wohl wieder zurück zu Claws-Mail wechseln.

    Ein klein wenig kann ich die verschiedenen Reklamationen aus der Ubuntu-Szene wegen dem neuen Theme und den Farben verstehen. Das ist aber letztlich Geschmackssache und darüber lässt es sich schwer streiten. Schliesslich war das Braun ja auch keine besonders tolle Sache, finde ich. Hingegen verstehe ich das Theater, welches wegen den Fensterbuttons, die nun links statt rechts und dann noch in der anderen Reihenfolge stehen, nicht. Das ist reine Gewohnheit und ob das die Apfel-Leute nun auch so haben, ist mir persönlich ziemlich egal.

    Nautilus kann jetzt von Haus aus per F3-Taste zwei Fenster anzeigen, dazu braucht es keine Extra-Installation mehr. Es gibt noch eine ganze Menge Neuerungen auf 10.04, die unter anderem auch im Wiki von ubuntuusers.de beschrieben sind. Üblicherweise mache ich keine Upgrades, sondern installiere das System neu. Das hole ich dann nach, sobald die finale Version da ist. Auf meiner “Arbeitsmaschine”, einem Lenovo ThinkPad R61, werde ich dann wohl auch das komplette System mit Lucid Lynx neu einrichten. Ubuntu 10.04 Lucid Lynx wird wieder eine LTS-Version werden, welche in der Dsktop-Variante während den nächsten drei Jahren mit Updates versorgt wird. Die Server-Variante erhält fünf Jahre lange Sicherheitsupdates.

    Ähnliche Artikel

    Heute stellte sich mir spontan die Frage warum es so wenige kommerzielle Spiele für Linux gibt. Nach ein paar Minuten nachdenken kam ich auf ein paar Ideen. Der gewichtigste Grund ist sicherlich schlicht und ergreifend der Marktanteil, der bei Windows einfach höher liegt. Da hilft es nur mehr Systeme mit Linux zu installieren ;-) Den zweiten Grund den ich mir vorstellen könnte ist, das manche Firmen Angst haben vor der Vielfalt. Bei Windows gibt es ja nur Windows XP, Windows Vista und Windows 7 (wenn wir mal nur die neueren Sachen für den Endbenutzer betrachten). Bei Linux hingegen gibt es hunderte Distributionen. Das könnte mancher Firma schon Angst machen.

    Auf der anderen Seite bin ich aber gar nicht mal so unglücklich über den jetzigen Zustand, da es wie ich finde doch die Open Source Spiele indirekt fördert. Auch wenn es dort noch nicht die Mega 3D Blockbuster gibt von denen jeder redet. Aber was nicht ist kann ja noch werden. Außerdem bestechen viele Open Source Spiele eher durch die Idee und deren Umsetzung als durch bombastische Sound- und Grafikeffekte. Man denke nur an Spiele wie XMoto und Co. Und es existieren wirklich eine Menge freie und gute Spiele für Linux angefangen bei Armagetron über Spring oder Wormux bis zu Oolite. Wenn die Industrie halt nicht will, dann nicht ;-)

    Heute stellte sich mir spontan die Frage warum es so wenige kommerzielle Spiele für Linux gibt. Nach ein paar Minuten nachdenken kam ich auf ein paar Ideen. Der gewichtigste Grund ist sicherlich schlicht und ergreifend der Marktanteil, der bei Windows einfach höher liegt. Da hilft es nur mehr Systeme mit Linux zu installieren ;) Den zweiten Grund den ich mir vorstellen könnte ist, das manche Firmen Angst haben vor der Vielfalt. Bei Windows gibt es ja nur Windows XP, Windows Vista und Windows 7 (wenn wir mal nur die neueren Sachen für den Endbenutzer betrachten). Bei Linux hingegen gibt es hunderte Distributionen. Das könnte mancher Firma schon Angst machen.

    Auf der anderen Seite bin ich aber gar nicht mal so unglücklich über den jetzigen Zustand, da es wie ich finde doch die Open Source Spiele indirekt fördert. Auch wenn es dort noch nicht die Mega 3D Blockbuster gibt von denen jeder redet. Aber was nicht ist kann ja noch werden. Außerdem bestechen viele Open Source Spiele eher durch die Idee und deren Umsetzung als durch bombastische Sound- und Grafikeffekte. Man denke nur an Spiele wie XMoto und Co. Und es existieren wirklich eine Menge freie und gute Spiele für Linux angefangen bei Armagetron über Spring oder Wormux bis zu Oolite. Wenn die Industrie halt nicht will, dann nicht ;)

    15. März 2010

    Auf die Frage, ob es denn ein neues Sound-Theme für Ubuntu 10.04 Lucid Lynx gebe, antwortete Ubuntu-Initiator Mark Shuttleworth folgendes:

    Mark Shuttleworth: Gack, I completely forgot about that. A very good point. Would you see if you can rally a round of community submissions for a sound theme inspired by light?

    Es sei ein guter Punkt, welchen er aber total vergessen hätte. Die Community kann nun (vom Light-Theme inspirierte) Sound-Themes einreichen, wozu auf auf ubuntuforums.org ein Thread eröffnet wurde. Ein Bugreport ist bei Launchpad zu finden.

    Nach all dem Wirbel um die neue Identität von Ubuntu ist dieser Patzer wirklich kurios. Wer „audiotechnisch“ begabt ist hat nun die Möglichkeit, Teil der kommenden Ubuntu-Version zu werden – wenn das kein Ansporn ist :lol: .

    (gefunden auf omgubuntu.co.uk, thanks)


    Comments

    Bevor mich wer aus dem Feedreader wirft: Dieses Mal ist es keine Diskussion über das Für und Wider der Ubuntu-Fensterkontrolleistenänderung mehr :-D (hat aber doch damit zu tun)

    Viel mehr gibt es endlich eine Art offizielles Statement von Mark über die Änderung:

    [...] The default position of the window controls will remain the left,
    throughout beta1. We’re interested in data which could influence the
    ultimate decision. There are good reasons both for the change, and
    against them, and ultimately the position will be decided based on what
    we want to achieve over time.

    Moving everything to the left opens up the space on the right nicely,
    and I would like to experiment in 10.10 with some innovative options
    there. It’s much easier to do that if we make this change now. I
    appreciate that it’s an emotive subject, and apologise for the fact that
    I haven’t been responding in detail to every comment – I’m busy moving
    house this week. But the design team is well aware of the controversy,
    your (polite) comments and more importantly *data* are very welcome and
    will help make the best decision.

    When we have a celebrity bug report like this, it’s a real exercise for
    our values of communication, civility, and ubuntu. Thank you to those
    who have pointed to the code of conduct when things get heated. And
    thanks even more to those who FELT heated but didn’t let it show :-) [...]

    Kurz zusammengefasst: Bis in die Beta1 hinein wird das aktuelle Buttonlayout bleiben wie es ist, danach wird man eine Entscheidung anhand der gesammelten Daten der Community treffen. Mark dankt allen für die konstruktive Kritik und auch denen, die Andere daran erinnert haben, höflich zu bleiben und den Code-of-Conduct zu repektieren.

    Insgesamt ist die Änderung des Layouts also eine Art “Test”, da man mit der rechten Seite des Fensters in Ubuntu 10.10 noch weitere tolle Sachen vor hat. (Was genau sagt Mark aber noch nicht) Anscheinend ist also absichtlich nicht weiter auf die Gründe für die Änderung eingegangen worden, um die Reaktion der Nutzer auf eine solche Umstellung zu testen. (Und genau dafür sind Testversionen ja auch da, oder?)

    Damit ist im Grunde meine Kritik an Canonicals Vorgehen ausgeräumt. Ich bin schon sehr gespannt, was Mark und seine Crew in Sachen UI für spätere Releases noch so vor haben…

    Quelle: Launchpad

    An Eleganz nicht zu überbieten. Die Live-CD Elive 2.0 ist eine Augenweide. Sie basiert auf Debian Lenny und hat den aktuellen svn Code von Enlightenment als Windowmanager. Als Filemenager dient Thunar 0.90. Die Live CD startet recht flott nachdem man sich für seine Sprachen entschieden hat. Es gibt zwei Iso Images, die sich durch unterschiedliche Kernel unterscheiden. Ich habe die Iso mit den neueren 2.6.30.9 Kernel genommen. Beim starten kann man sich übrigens für einen EEPC (701) Mode entscheiden. Damit hat man dann eine auf den kleinen Screen angepasste Oberfläche.

    Allerdings gelten immer noch die selben Vorbehalte, die ich bereits vor knapp 2 Jahren geäußert habe. Um die Live-CD zu installieren, wird man genötigt, einen Betrag von minestens 15.- Euro oder Dollar zu spenden. Das ist so gelöst, das man die download Url für das Install Modul erst bekommt, wenn man den Betrag überwiesen hat. Einziger Ausweg, für den, der sich das nicht leisten kann oder will: Man kann einen Artikel in einem Magazin oder Blog schreiben. Also habe ich Thanatermesis angeschrieben und um einen Invitation Code gebeten. 

    Solange ich auf den Link warte, gucke ich mir eben die Live Variante mal etwas genauer an.

    Die Notizzettel Applikation xpad zum Beispiel. Sie sieht unter Lenny eher langweilig aus. In Elive hat man eine nette Schrifft voreingestellt und auch gleich schon zwei Notizen mit "bemerkenswerten" Inhalt.

    Als Terminal Emulation wird rxvt in der unicode Variante verwendet. Dieses kleine Juwel urxvt ist im Paket  rxvt-unicode enthalten. Damit kann man schöne Schweinereien machen. Zum Beispiel kann man einen Text markieren und mit STRG-Rechtsklick den selektierten Text mit ROT13 behandeln, oder, etwas nützlicher den Text mit shell Esqape Sequenzen versehen. Was bei diesen beiden Screenshots nicht zu sehen ist, weil diese Option erst auftaucht, wenn man auch einen Text selektiert, der mit Escape Sequecnzen versehen werden kann. Es muß also wenigstens ein Leerzeichen mit selektiert werden.

    Der Code ist nun angekommen, die Installation ging soweit ganz gut, es kommen etliche Fenster hoch, die einem Anfänger helfen können, die Texte sind auch fast alle perfekt eingedeutscht, aber es gibt ein paar Ausnahmen :-)

    Nach der üblichen Vergabe von rootpasswort und Benutzer anlegen wird das System neu gestartet. Nach dem Login bekommt man die Aufforderung zum fine-tuning das root passwort anzugeben. Dann beginnt ein script sage und schreibe 6 mal die initramdisk zu bauen, wenig später mit mkinitramfs-kpkg werden die Locales generiert. Und zwar das volle Programm! Schade denn Deutsch und English würden ja wohl reichen. Danach wird die initrd noch zweimal generiert. Das muss noch besser werden.

    Ansonsten arbeite ich jetzt ca. eine Woche mit dem System, habe ein paar Einträge in der iBar ergänzt. soweit bin ich mit der Stabilität sehr zufrieden.

    Pro: Ein rundes System, welches in der Linux Landschaft ohne Gleichen ist. Eine solide Basis, fast keine Probleme beim nachinstallieren von weitere Software. Neidische Blicke unter Freunden und Bekannten sind garantiert. Es macht einfach Spaß, damit zu arbeiten. Geringer Arbeitsspeicherbedarf, 256 MB sind mehr als ausreichend.

    Kontra: Der Installer ist nicht so flexibel wie der Original Debian Installer, die Installation dauert wegen dem Locales Bug sehr lange. Die Update Frequenz folgt in großem Abstand zu Debian.

    Fazit: Ob man damit leben kann, das man einen kleinen Obulus entrichten muss, um den Install-Key zu bekommen, muss jeder für sich selbst entscheiden. Ob man mit dem auf Lenny basierenden Elive 2.0 glücklich wird, wenn demnächst Squeeze zur Verfügung steht, muß man auch selber wissen. Bis Elive dann auf Squeeze upgedatet wird, wird noch eine geraume Zeit vergehen.

    Die userbasis ist für Elive lange nicht so groß wie für andere Derivate. Es sollte einem klar sein, das man sich auf Gedeih und Verderb einer sehr kleinen Entwicklergemeinde aussetzt, wenn man ein Problem mit den Spezialitäten der distribution hat. Allgemeine Probleme lassen sich natürlich auch in einem Debian forum besprechen, so groß sind die Unterschiede nun auch wieder nicht.

    Die gute alte html-Dokumentation SELFHTML steht vor einem tiefgreifenden Wandel. Von einer “autoritär” gepflegten Webseite, will man nun dazu übergehen die Seite als Wiki aufzuziehen. Dazu wird man auch die Lizenz komplett ändern. Bislang durften die Dokumente der SELFHTML zwar auch frei kopiert und verteilt werden, die Lizenz war jedoch Marke Eigenbau. Mit dem Wiki stellt man auf komplett Creative Commons BY-SA um.

    Heute geben wir den Startschuss für das SELFHTML-Wiki unter http://wiki.selfhtml.org/. Das Wiki soll unsere klassische statische Dokumentation langfristig ablösen und hat den Vorteil, dass ab sofort alle Interessierten ohne große Umwege Inhalte beitragen können. Viele Ideen und Anregungen dazu sammelten wir im SELFHTML Forum. In den letzten Wochen haben wir das Wiki aufgebaut und einige Fragen um Technik und auch Lizenz geklärt. Als Wiki-Software wird Mediawiki verwendet, die gleiche Software die auch von Wikipedia genutzt wird. Alle Inhalte des SELFHTML Wikis werden unter einer Creative Commons BY-SA-Lizenz stehen, wie auch in den Lizenzvereinbarungen und den Nutzungsbedingungen beschrieben.

    Ich bin mal gespannt wie sich das SELFHTML-Wiki entwickelt. Die ersten Pläne für ein SELFHTML-Wiki gab es ja schon Ende 2006, ich hoffe mal dass der endgültige Umstieg nicht nochmal 5 Jahre braucht. Informationen zum Umstieg auf das Wiki findet ihr im Blog des Projektes. Man sucht auf jeden Fall helfende Hände, die die Inhalte portieren.