ubuntuusers.de

27. April 2010

Passend zum Start von Ubuntu 10. 04 “Lucid Lynx” hat Canonical jetzt sein Online-Shop wieder aufgestockt. Seit geringer Zeit gibt es nun die neuen T-Shirts und andere hübsche Merchandising-Produkte rund um Ubuntu. Die neuen Produkte sehen echt nicht schlecht aus und deswegen habe ich mir gleich mal ein Ubuntu-T-Shirt von Canonical gekauft, trotz der üppigen Versandkosten von fast 9 €. Aber man muss auch bedenken, dass man damit Canonical und somit Ubuntu unterstützt! Hier ein paar Eindrücke zu den neuen Produkten:

Schick oder ?

Bilder – Copyright @Canonical


Das könnte dir auch gefallen:
Copyright © 2010 Dont copy without permission of www.pablo-bloggt.de (Digital Fingerprint: de5b9a1940bbb4ee5a332103e8c6711c)

© Pablo for Pablos Blog, 2010. | Permalink | 6 Kommentare | Add to del.icio.us
Post tags: , , ,

Canonical, oder Ubuntu, so genau kann man das nicht sagen, handelt derzeit nach dem Motto „Alles neu, macht der Mai“. Canoncial positioniert mit viel Aufwand sein Produkt Ubuntu neu. Wie in der Vergangenheit bleiben die Derivate K-,X-, (L-)ubuntu leider außen vor.

Der Umbruch im Detail:

Neues Design

Ubuntu und die dazugehörige Website bekommen mit dem kommenden Release Lucid Lynx einen neuen Anstrich. Böse Zungen behaupten es sieht aus wie ein Abklatsch von MacOS… ;) Auf jeden Fall wirkt der Desktop aufgeräumter, die Icons sind selbsterklärend und hat man sich endlich von den Brauntönen verabschiedet. Die Fensterknöpfe wurden links angeordnet, was nach einiger Eingewöhnungszeit deutlich komfortabler zu bedienen ist.

Durch diese Maßnahmen wird erstens ein _durchgängiges_ Corporate Design geschaffen und zweitens steigert dies (Logo, Farben) den Wiedererkennungswert bei Neueinsteigern / Interessierten.

Spezifische „Apps“

Seit Version 9.10 wurde ein Software Center in die Standardinstallation mit aufgenommen. Langfristig soll Synaptic damit abgelöst werden.

Neu hinzugekommen ist in Karmic Koala auch Ubuntu One, ein Filehostingdienst ähnlich wie der von Dropbox. Für etwas Entgelt kann man sich seinen Onlinespeicher aufbohren lassen.

Ab Lucid gibt es für audiophile Nutzer den Ubuntu One Music Store. Dort können DRM-freie Musikstücke erworben werden.

Schon länger gibt es die Möglichkeit sich automatisch die fehlenden Codecs einspielen zu lassen. Das ist gerade für Umsteiger eine große Hilfe, da man gerade am Anfang überhaupt keine Ahnung hat, welche Pakete man eigentlich für die Wiedergabe von z. B. Mp3s einspielen soll.

Feature-Focus auf LTS-Versionen

Es scheint auch nochmals ein Umdenken bei den „normalen“ und den LTS-Versionen gegeben zu haben. Zukünftig sollen in den Releases zwischen den LTSs vermehrt Features getestet werden und diese dann stabil in das nächste LTS einfließen.

LTS-Versionen sind das wichtigste Release für eine Firma, da man nicht alle 6 oder 18 Monate neu installieren möchte. Zudem ist man auf ein stabiles und verlässliches System angewiesen.

Lass dich Zertifizieren

Canonical bietet zukünftig eine Ubuntuzertifizierung an. Sie habens erkannt, ohne Zertifikat geht im professionellen Umfeld heute nichts mehr. Jeder Arbeitgeber möchte sichergehen, dass die Mitarbeiter der IT die eingesetzte Software auch administrieren können.

Worauf ich eigentlich hinaus will

Man kann von Ubuntu halten was man will, aber mit so viel Innovation und Eifer versucht derzeit kein Distributor im Desktop-Markt fußzufassen. Canonical, insbesondere Herr Shuttleworth, setzt viel Energie und Geld dafür ein, Ubuntu zu einem Durchbruch im Desktop- und Serverbereich zu verschaffen. Die Strategie hinter Ubuntu ist sicherlich aggresiver, wie die der alteingesessenen Marktherrscher (Novel, Red Hat), aber dieses Konzept scheint aufzugehen. Man muss sich nur die Artikel über Ubuntu in den Zeitschrifen, Online-Medien, die Nutzeranzahlen in Ubuntuforen und die Statistik von distrowatch angucken.
Dann merkt man recht schnell, dass Ubuntu seinen Kinderschuhen entwächst und sich langsam aber sicher im Unternehmens- und Privatbereich etabliert.

Ich bin wirklich jetzt schon neugierig, was sich die Produktmanager und Progarmmierer von Canonical, rund um Mark Shuttleworth, in Zukunft für Ubuntu einfallen lassen und wann mit dieser Distribution schwarze Zahlen geschrieben werden. Da es sich bei Mark Shuttleworth bekannter Maßen um einen Strategen (im positiven Sinn) handelt, wird in den folgenden Releases sicherlich noch die ein oder andere Überraschung oder Innovation auf die Ubuntu-Community zusteuern.

Ob natürlich allen Nutzern die kommerzielle Ausrichtung gefällt, steht auf einem anderen Blatt… Evtl. bekommt man einen freien MacOS-Klon (nur Spaß, bevor Ihr die virtuellen Steine fliegen lasst ;) )

Soviel zur Sicht eines Gelegentlich-Ubuntuuser.
Und viel Spaß allen Ubuntu-Nutzern mit dem Release von Lucid in 2 Tagen :D


Heute Abend bin ich beim Lokalradio Winterthur – dem Radio Stadtfilter – zu einem Gespräch über Ubuntu und dem neuen Releasy Lucid Lynx eingeladen. Innerhalb der Sendung Digital, welche um 19:30 Uhr gesendet wird, reden wir wohl über Ubuntu im Allgemeinen, über das neue Release und vielleicht auch noch über unsere Release-Party vom 1. Mai 2010 in Winterthur. Der Sender Stadtfilter ist in der Region über den Äther unter 96.3 MHz (UKW) erreichbar, via Cablecom unter 107.35 MHz und natürlich auch als Stream über das Internet. Die heutige Sendung und auch alle andern Produktionen von Radio Stadtfilter werden nachträglich als Podcast zur Verfügung gestellt.

Ich freue mich auf die Sendung und bin sehr gespannt, was dabei herauskommt. Es ist in meinen Augen wichtig, dass wir solche Plattformen mitnutzen dürfen, um der freien Software etwas Auftrieb zu verschaffen. Vielen Dank für die Einladung!

PDF-Datei dieses Artikels erzeugen



Ähnliche Artikel

    Filesharing ist eine tolle Erfindung, die es ermöglicht, vielen Leuten bestimmte Bilder, Videos, Musik, Texte oder andere digitale Daten zugänglich zu machen. Es gibt Anbieter und Protokolle wie Sand am Meer, alle tragen die verrücktesten Namen, die ihren Erfindern eingefallen zu sein scheinen.

    Für Linux gibt es einen Client, der einen Großteil dieser Protokolle vereinen kann – er nennt sich MLDonkey. Dieses Paket teilt sich in zwei Teile, zum einen in ein grafisches Frontend, zum anderen einen Kern im Hintergrund, den so genannten Core.

    Installiert lässt sich das Paket z.B. über den folgenden Befehl:

    sudo apt-get install mldonkey-server

    Da der Core ein Dienst ist, wird man bei der Installation gefragt, ob er beim Starten des PCs automatisch gestartet werden soll. Es handelt sich dabei um den Dienst /etc/init.d/mldonkey-server
    Sollte man diese Option verneinen, kann man den Server manuell über den Befehl

    mldonkey

    im Terminal starten (und über Strg + C wieder beenden).

    Wie man den Server konfiguriert, könnt ihr z.B. im Wiki bei ubuntuusers.de nachlesen. Ihr benötigt dafür evtl. euere interne IP, die sich über den Befehl

    ifconfig

    herausfinden lässt.

    Grafische Verwaltungstools

    MLDonkey Grafische Oberfläche

    Die Bedienung des Daemons gestaltet sich wieder sehr Linux-like, d.h. dass man viele Möglichkeiten hat. Eine gute und komfortable Möglichkeit, ist z.B. über das hauseigene GTK+ Interface. Dieses findet sich über AnwendungenInternetMLDonkey im GNOME-Menü und zeichnet sich durch wenige Knöpfe im Kopfbereich aus. Diese sind weitestgehend selbsterklärend. Installiert werden kann es über den Befehl:

    sudo apt-get install mldonkey-gui

    Außerdem gibt es – als weitere komfortable Alternative – ein Interface für den Browser. Über http://localhost:4080/ lässt es sich aufrufen und bedienen. Allerdings ist dazu das Passwort notwendig, dass man in der Konfiguration festgelegt hat.

    Als weitere bekannte Oberfläche für MLDonkey ist das Paket Sancho. Das in Java geschriebene Programm hat es bisher nicht in die Repositories von Ubuntu geschafft, weswegen man den Installer von der Homepage beziehen muss, um es zu nutzen. Wie genau sich dieses Interface installieren lässt, ist ebenfalls bei ubuntuusers beschrieben.

    Die verschiedenen Interfaces interagieren auch mehr oder weniger miteinander, weswegen man auch mehrere gleichzeitig nutzen kann :)

    Wichtige Hinweise

    Filesharing - nicht nur für Esel

    Wer sich brav die Pakete installiert hat, jedoch vergeblich versucht ein Suchergebnis in einem der Interfaces zu erhalten bzw. überhaupt in das Interface zu gelangen, dem sei ans Herz gelegt, dass er vergessen hat, den Server zu starten ;)

    Nachdem man eine Datei laut grafischer Oberfläche erfolgreich heruntergeladen hat und sich schon auf dessen Benutzung freut, sollte man diese auch wieder finden. MLDonkey ist in der Standardkonfiguration so eingestellt, dass die Dateien auf einem Linuxsystem unter ~/.mldonkey/incoming/files/ bzw. */directories/ gespeichert werden. Da dieser Ordner nur versteckt im Homeordner auffindbar ist, sollte man diese Einstellung korrigieren. Das geht entweder über das Webinterface oder über die Datei ~/.mldonkey/downloads.ini. Dort kann der Ordner in den Zeilen 441ff. geändert werden:

    {     dirname = "/home/benni/Downloads/incoming/files"
    strategy = incoming_files
    priority = 0
    };
    {     dirname = "/home/benni/Downloads/incoming/directories"
    strategy = incoming_directories
    priority = 0
    };

    Filesharing funktionert nach dem Geben-und-Nehmen-Prinzip. Man sollte also immer im Hinterkopf behalten, dass man nicht nur lädt, sondern auch sendet. Im Normalfall betrifft das aber nur die Dateien, die man im shared-Ordner des Programmes hat, also die oben eingestellten Ordner.

    Leider werden Filesharing Services immer wieder dazu genutzt, urheberrechtlich geschütztes Material zu verbreiten, was diese „Erfindung“ oft in ein negatives Licht rückt. Das finde ich schade, dass es immer wieder Menschen gibt, die Technologie zu kriminellen Zwecken nutzen. Aber es lässt sich wohl nicht vermeiden.

    Nun aber noch viel Spaß beim Datentausch!
    Bildquelle

    Tja, hört sich komisch an, ist aber so (unter Lucid und mit Lotus Notes 8.5.1; Karmic ist nicht betroffen)

    Also jetzt mal im ernst. Ich habe mit Orca herum gespielt. Orca ist ein Gnome Tool für Sehbehinderte, bzw. wohl auch für Blinde – ein sogenannter Screenreader. Orca liest dabei immer das vor, was sich der Bildschirm zeigt und was man angeklickt hat …

    Meine eigentliche Intension war es, mir den aktuellen Stand von Orca anzusehen. Auch um Respekt vor denen zu haben, die sich um solche Programme kümmern und anderen damit den Zugang zum PC oder zu anderen Systemen ermöglichen. Während meiner Spielerei bin ich dann auf die Idee gekommen Orca so einzurichten, dass er nur die Pidgin Nachrichten vorliest – hab ich aber leider nicht geschafft :-(

    Ein für mich großes Problem zeigte sich nach der erneuten Anmeldung – Lotus Notes versagte komplett (auch Reproduzierbar bei einem Kollegen). Sobald man Orca einmal eingerichtet hat, passiert nach der Anmeldung an Notes nichts mehr – kein Bild kein Ton. Dieser Zustand besteht auch, wenn Orca als Prozess gar nicht läuft. Wahrscheinlich kann man dieses Phänomen auch bei anderen Programmen beobachten.

    Wir haben uns das ganze angesehen und sind recht schnell darauf gekommen, dass ein Eintrag in gconf für das Problem verantwortlich ist. Einige Zeit später hatten wir dann den konkreten Eintrag gefunden:

    /desktop/gnome/interface/accessibility

    Dieser Wert wird während der Orca Installation auf true gesetzt. Mit dem Befehl

    gconftool-2 --type bool --set /desktop/gnome/interface/accessibility 0

    kann man ihn entsprechend wieder auf false (0) setzen und nach einer erneuten Anmeldung ist das Problem behoben. Warum Lotus Notes dadurch ein Problem bekommt kann ich leider nicht sagen. Ein strace habe ich mir angesehen, jedoch keinen wirklichen Hinweis bekommen.

    26. April 2010

    Wie die Zeit vergeht… Kaum ist 9.10 erschienen, kommt bald auch  schon die nächste Ubuntu-Version und die dazu gehörige neue Firefox-Startseite.


    Ihr könnt hier nun von Ubuntu 8.04 bis 10.04 alle Startseiten anschauen. Welche gefällt euch persönlich am besten? Ich selber finde die Firefox-Startseite von Ubuntu 8.04 am schönsten und informativsten.

    Firefox-Startseiten von 8.04 bis 10.04

    Note: There is a poll embedded within this post, please visit the site to participate in this post's poll.

    Das WePad war ja die letzten Tage in aller (Blogger-) Munde. Die verpatzte Präsentation Mitte April lud zum Spot über das ambitioniert Projekt ein, lief doch auf dem Gerät nur ein Video und statt einem Linux-basierten System nur ein Windows, das sich durch eine Schutzverletzung im falschen Moment verriet. Doch nun haben die Jungs von neofonie GmbH nachgelegt und das hübsche Stück ordentlich präsentiert. AndroidPit war dabei und hat sich das Gerät ausführlich zeigen lassen.

    Ich bin ja mal gespannt. Die Spezifikationen machen auf jeden Fall was her. Im Endeffekt ist es dem iPad mit einer eingebauten Webcam und USB-Ports zwei Generationen voraus. Dazu kommt dass Java, Flash, Adobe AIR, native Linux-Programme und Android Apps auf der Kiste laufen. Man startet also gleich mit einem gewaltigen Stack an Programmen. Einzige “Sorge” für mich ist das Gewicht. Ich fand das iPad mit rund 680 Gramm schon zu schwer, um es länger in der Hand zu halten. Das WePad wiegt rund 800 Gramm und ist deutlich größer, es eignet sich daher wirklich nur als Laptop ohne Tastatur… Weitere Bilder und Videos zum WePad findet Ihr in der Galerie der Homepage.

    Feel free to Flattr this post at flattr.com, if you like it.

    Flattr this!

    Beispiel QR-Codes sind “moderne” Barcodes. Im Gegensatz zu den bekannten Strichcodes sind QR-Codes jedoch zweidimensionale Barcodes, die viel mehr Informationen speichern können. So kann man beispielweise Visitenkarten, Texte oder eben URLs in QR-Codes speichern.

    QR-Codes kann man unter Ubuntu beispielsweise mit Hilfe von qrencode erstellen.

    Das Konsolenprogramm qrencode ist in den Ubuntu Paketquellen enthalten. Man kann es über folgenden Befehl installieren:
    sudo apt-get install qrencode

    Die Benutzung ist auch sehr einfach. So liefert der folgende Befehl ein QR Code der im Homeverzeichnis in der Datei test.png gespeichert wird und die Url auf diesen Blog enthält:
    qrencode -o test.png http://www.yetanotherlinuxblog.de

    [via ubuntuusers wiki, bejonet]

    Seit der Ankündigung des Mac-Ports von Steam ist immer wieder auch von einer Linuxversion die Rede, die wohl primär herbeigehofft wird. Phoronix aber hat bereits letzte Woche echte Anhaltspunkte dafür veröffentlicht, nämlich eine explizite Prüfung auf Linux, die eben nicht direkt zum Abbruch führt:

    ...
    #determine platform
    UNAME=`uname`
    if [ "$UNAME" == "Darwin" ]; then
       PLATFORM=osx32
       # prepend our lib path to LD_LIBRARY_PATH
       export DYLD_LIBRARY_PATH="${STEAMROOT}"/${PLATFORM}:$DYLD_LIBRARY_PATH
    elif [ "$UNAME" == "Linux" ]; then
       PLATFORM=linux32
       # prepend our lib path to LD_LIBRARY_PATH
       export LD_LIBRARY_PATH="${STEAMROOT}"/${PLATFORM}:$LD_LIBRARY_PATH
    fi
    ...

    Dieses Vorgehen lässt zumindest den Schluss zu, dass intern bei Valve eine Linuxversion getestet wird.

    Natürlich: Steam alleine nützt niemanden etwas. Aber es geht eben nicht nur um Steam - da die Source-Engine für Mac sowieso auf OpenGL portiert wird, dürfte die Linuxversion der darauf basierenden Spiele (CSS, Half-Life 2, Left 4 Dead) nicht mehr viel Aufwand erfordern.

    Mit Steam würde die größte Plattform für digitale Spielekäufe zu Linux kommen, was wiederum Entwickler dazu bringen könnte, ihre per Steam vertriebenen Spiele auch für Linux anzubieten.

    Ich bin ein großer Fan der “Unterhaltung am Wochenende” auf WDR5. Mit Hilfe von CRON und streamripper stelle ich meinen Ubuntu-PC so ein, dass immer automatisch am Samstag zwischen 16:05 und 18:00 die neue Folge übers Internet aufgenommen wird. Zunächst installiert man streamripper per sudo apt-get install streamripper Der Befehl für eine Aufnahme lautet: streamripper URL-VOM-RADIOSTREAM -d /Pfad/zum/Speichern/ -l Länge_in_Sekunden > /dev/null 2>&1 Für WDR5 lautet der Befehl, um für 120 Minuten etwas aufzunehmen:

    Ich bin ein großer Fan der “Unterhaltung am Wochenende” auf WDR5. Mit Hilfe von CRON und streamripper stelle ich meinen Ubuntu-PC so ein, dass immer automatisch am Samstag zwischen 16:05 und 18:00 die neue Folge übers Internet aufgenommen wird.

    Zunächst installiert man streamripper per

    sudo apt-get install streamripper

    Der Befehl für eine Aufnahme lautet:

    streamripper URL-VOM-RADIOSTREAM -d /Pfad/zum/Speichern/ -l Länge_in_Sekunden > /dev/null 2>&1

    Für WDR5 lautet der Befehl, um für 120 Minuten etwas aufzunehmen:

    streamripper http://www.wdr.de/wdrlive/media/wdr5.m3u -d /home/produnis/Downloads/ -l 7200 > /dev/null 2>&1

    Streamripper legt nun im Ordner /home/produnis/Downloads/ den Unterordner WDR5, © Westdeutscher Rundfunk Köln 2010/incomplete an. In diesem liegt die Datei “ - ´´.mp3“, welche unsere Aufnhame enthält. Leider ist der Dateiname etwas unschick, und darüber hinaus wird die Datei auch bei nachfolgenden Aufnahmen wieder überschrieben. Eine leichte Veränderung des Befehls nimmt sich dieser Sache an:

    streamripper http://www.wdr.de/wdrlive/media/wdr5.m3u -l 7200 -a $(date +%d%b%Y-%H%M) -d /home/produnis/Desktop/ -s -A > /dev/null 2>&1
    

    Der Parameter -a setzt einen eindeutigen Dateinamen (à la 26Apr-2055.mp3), dann wird nichts überschrieben. -s legt nicht für jede Aufnahme einen Ordner an und -A belässt die Aufnahme am Stück ohne einzelne Tracks (Danke an Gerhard für diesen Tip).

    Ok, wie gesagt, das Ganze soll nun automatisch immer samstags ablaufen, sodass immer zwischen 16:03 und 18:00 Uhr WDR5 aufgenommen wird.

    Im Terminal öffnet folgender Befehl die Cron-Tabelle des Benutzers:

    crontab -e

    Diese ist bei einer frischen Installation leer. Bei mir bekommt sie nun folgenden Inhalt:

    SHELL=/bin/bash
    PATH=/usr/local/bin:/usr/local/sbin:/sbin:/usr/sbin:/bin:/usr/bin:/home/produnis/bin
    
    ########################################
    # min hour day mon wochentag   command #
    ########################################
    
    # Unterhaltung am Wochenende aufnehmen
    3 16 * * 6 streamripper http://www.wdr.de/wdrlive/media/wdr5.m3u -l 7200 -a $(date +\%d\%b\%Y-\%H\%M) -d /home/produnis/Desktop/ -s -A > /dev/null 2>&1
    #-------------------------------------
    

    ACHTUNG:
    Innerhalb von CRON werden die %-Zeichen als Zeilenumbruch interpretiert, und es kann zu Fehlern kommen! Daher wurde im $date-Bereich oben vor jedes %-Zeichen einen Backslash ‘\‘ gesetzt!

    Zu beachten ist zudem, dass crontab mit einer Leerzeile enden muss!
    (weitere Erklärungen zu CRON bietet dieser Wikiartikel)

    Wer nicht manuell die crontab editieren möchte, findet mit GNOME-Schedule eine nette GUI.

    Das war’s! Ab jetzt verpass ich keine Sendung mehr – sofern PC und Internet laufen… :-)

    Wer kennt das nicht? Kollegen oder Freunde, die M$-Office nutzen, senden ihre Mailanhänge im Format winmail.dat. Von Hause aus können Evolution oder Thunderbird nichts damit anfangen. Es gibt verschiedene Möglichkeiten, die winmail-Anhänge unter Ubuntu zu öffnen. Für Evolution Seit Ubuntu 9.04 Jaunty existiert für Evolution das Zusatzpaket evolution-plugins-experimental, welches unter anderem das Plugin tnef-attachments beinhaltet. Das Paket lässt sich recht einfach per `sudo apt-get install evolution-plugins-experimental` installieren. Jetzt muss Evolution neugestartet werden.

    Wer kennt das nicht? Kollegen oder Freunde, die M$-Office nutzen, senden ihre Mailanhänge im Format winmail.dat. Von Hause aus können Evolution oder Thunderbird nichts damit anfangen. Seit Ubuntu 9.04 Jaunty existiert für Evolution das Zusatzpaket evolution-plugins-experimental, welches unter anderem das Plugin tnef-attachments beinhaltet.
    Das Paket lässt sich recht einfach per

    sudo apt-get install evolution-plugins-experimental

    installieren.
    Jetzt muss Evolution neugestartet werden. Anschließend sieht man unter “Bearbeiten => Plugins” den TNEF-Dekodierer, welcher auch schon per Häkchen aktiviert ist. Von nun an werden alle winmail.dat-Anhänge “brauchbar” angezeigt.

    Alternativ kann man auch den Online-Service unter http://tud.at/php/tnef/ nutzen. Dort lädt man den winmail.dat-Anhang hoch, und kann dann die enthaltenen Dateien wieder herunterladen.

     

    Am Rande

    Schön finde ich übrigens den Kommentar von “windows-ablehner” auf dieser Seite:

    Wenn du dieses komische Format akzeptierst und über irgendwelche Verrenkungen öffnest, wird er nie damit aufhören.

    Antworte ihm lieber so lange mit ODF-, OGG- und Tar-Dateien, bis er von selber drauf kommt. Wenn er sich beschwert, dass die Anhänge “kaputt” sind und er sie nicht öffnen kann, kannst du ihm auch einen ext3-formatierten USB-Stick zukommen lassen. Weiteres Gemecker dann abblocken mit der Begründung, es müsse an seinem Rechner liegen, denn bei dir funktioniert ja alles.

    Oder du schickst ihm einfach einen Bounce im Namen eines angeblichen Virenscanners, der die “gefährliche Dateiendung .DAT” blockiert.

    Alle Outlook-Nutzer können das Versenden von winmail.dat-Anhängen wie folgt in Outlook abschalten:
    Extras -> Optionen -> E-Mail-Format -> Nachrichtenformat
    beim Punkt Verfassen im Nachrichtenformat: HTML oder Nur-Text auswählen. Der Haken bei RTF verursacht das “Problem”!

    Ich persönlich finde Angebote wie die Mediathek des ZDF sehr interessant. Es gibt dort viele interessante Beiträge die man sich ansehen kann, wenn man Zeit dazu hat. Nun ist es einerseits so, dass die Beiträge teilweise nur 7 Tage zur Verfügung stehen und man andererseits die Beiträge vielleicht auch auf dem Fernseher / Ipod o.ä. sehen möchte. Dazu muss man das Material zuerst einmal herunterladen. Dazu habe ich mir ein Script geschrieben, welches das recht komfortabel macht.

    Prerequisites für das Script:

    • mencoder
    • curl
    • zenity

    Wie ? (am Beispiel der ZDF Mediathek)

    Der Download liegt dann im .mpg (mpeg2video) Format vor und kann auf diversen DVD-Playern wiedergegeben werden oder in Itunes Importiert, und für Ipod/Iphone konvertiert werden.

    #!/bin/bash
    #
    # Download Script fuer .asx URLs (embedded .wmv)
    # 
    # Download aus aus der ZDF Mediathek:
    #  - HTML Version der Mediathek aufrufen
    #  - Beitrag auswaehlen
    #  - Windows Media Player Link (DSL 1000 / DSL 2000) kopieren
    #  - Script aufrufen und den Link einfügen
    #  - download starten ....
    #
    # Prerequisites:
    #  - mencoder
    #  - curl
    #  - zenitiy
    #  - .asx URL (linked to a .wmv Stream)
    #
    # Ronny Becker, 01.2010
    #
     
    # grab URL
    if [ ! $1 ]; then
     URL=`zenity --entry --text "Bitte die URL (.asx) eingeben:" --title "Mediathek Downloader" --width=400`
    else
     URL=$1
    fi
     
    # check if a URL was entered
    if [ ${#URL} -eq 0 ]; then
     zenity --error --title "Mediathek Downloader" --text="Keine gueltige URL ($URL)"
     exit
    fi
     
    # get mms:... out of .asx
    URL=`curl -s ${URL} | grep -o "mms:.*\.wmv"`
    # get filename from the origin; without .wmv
    OUTFILE=`basename $URL | sed 's/\.wmv//'`
     
    # download and save; show progressbar
    # if you need debugging, please comment out the progressbar function
    # beginning at "| awk ..."; then you get all to console output
    if [ $1 ]; then
    mencoder -ofps 25 -oac lavc -ovc lavc -of mpeg -mpegopts format=dvd -vf harddup\
             -srate 48000 -af lavcresample=48000,volnorm=1\
             -lavcopts vcodec=mpeg2video:vrc_buf_size=1835:vrc_maxrate=15360:vbitrate=15360:keyint=15:acodec=ac3:abitrate=192\
             -o "${OUTFILE}.mpg"\
             $URL
    else
    mencoder -ofps 25 -oac lavc -ovc lavc -of mpeg -mpegopts format=dvd -vf harddup\
             -srate 48000 -af lavcresample=48000,volnorm=1\
             -lavcopts vcodec=mpeg2video:vrc_buf_size=1835:vrc_maxrate=15360:vbitrate=15360:keyint=15:acodec=ac3:abitrate=192\
             -o "${OUTFILE}.mpg"\
             $URL 2>&1 | awk -vRS="\r" '$1 ~ /Pos/ {gsub(/Pos:/," ");gsub(/%\)/," ");gsub(/ \(/," ");print $3"\n#Position :\\t"$1"\\nFrame :\\t"$2"\\nPercentage :\\t"$3"%\\nFrame Rate :\\t"$4"\\nTime Remaining :\\t"$6; fflush();}' | zenity --progress --auto-kill --auto-close
    fi

    25. April 2010

    Falls man nach der Installation des Intel-Treibers und der “libdrm” aus meinem PPA feststellt, dass sich dadurch die Systemstabilität verschlechtert hat oder meinen Treiber aus irgendwelchen anderen Gründen wieder loswerden will, kann man alle aus meinem PPA installierten Pakete problemlos rückstandsfrei deinstallieren und die alten Pakete automatisch neu installieren lassen.

    Dazu musst man nur das Debian-Paket ““ppa-purge” herunterladen und folgende Befehle ausführen :

    wget https://launchpad.net/~xorg-edgers/+archive/ppa/+files/ppa-purge_0.2.6_all.deb
    sudo dpkg -i ppa-purge_0.2.6_all.deb
    sudo ppa-purge ppa:glasen/intel-driver
    sudo ppa-purge ppa:glasen/libdrm

    Danach ist der Urzustand des System wiederhergestellt.

    Das Programm “ppa-purge” lässt sich generell zur Deinstallation aller PPA-Pakete benutzen. Dazu muss man nur den gleichen Namen benutzen mit dem man ein PPA mit Hilfe des Befehls “add-apt-repository” hinzugefügt hat (In meinen Fall z.B. “ppa:glasen/intel-driver”).

    Ich wollte unbedingt E17 in Verbindung mit Debian auf meinem Netbook (Lenovo S10-2) installieren. Da es einige Unwegbarkeiten zu umgehen gibt, fasse ich meine Vorgehensweise in diesem HowTo zusammen.

    Enlightenment E17


    Vorbereitung

    Als erstes Installiert man Squeeze mit Xfce als Desktop, dazu packt man ein Installationsmedium für Testing auf einen bootfähigen USB-Stick und installiert Squeeze mit Xfce wie bei einer ganz normalen Installation. Sollte keine Auswahl des Installationsmenues erscheinen, ruft man die Installation mit folgendem Kommando am aufblinkenden Prompt auf:

    install desktop=xfce

    Installation

    Nachdem Squeeze erfolgreich installiert wurde, geht es an die Nachinstallation von E17 und der Software die man verwenden möchte. Ich habe meine sources.list mit dem Debian sources.list-Generator generieren lassen.
    Wer seine sources.list lieber manuell konfiguriert fügt das E17-Repo manuell ein.

    Repository:
    deb http://packages.enlightenment.org/debian squeeze main extras

    Key:
    wget -q http://packages.enlightenment.org/repo.key -O- | apt-key add -

    Anschließend findet man unter Synaptic die Pakete:

    e17
    emodule-xxx
    ...


    Achtung:
    Exalt und Entrance derzeit nicht installieren, da Entrance bei mir abstürzt und der Networkmanager Exalt nur WEP-Verschlüsselung beherrscht.

    Man installiert jetzt einfach e17 und die Module, die man benötigt/möchte.
    Schon kann man in GDM Enlightenment auswählen :D

    Beim Start erscheint der Einstellungsdialog von E17, hier wählt man am besten bei der Einrichtung „Netbook“, da mit dieser Einstellung z. B. Compositing deaktiviert ist.

    Anpassungen:

    Damit alles rund läuft, gerade was das Netzwerk angeht, muss man noch etwas Hand anlegen.
    Wicd, funktioniert mit Broadcom-Hardware derzeit leider nicht, da man (oder zumindest ich) den Treiber unter den Einstellungen nicht auf b43 umstellen kann (Die Einstellungen lassen sich nicht aufrufen). Deshalb deinstalliert man

    wicd, wicd-deamon, wicd-gtk

    und installiert dafür

    network-manager-gnome

    Damit man den Gnome-Networkmanager aufrufen kann, muss man jetzt noch bei Enlightenment das Modul „Infobereich“ laden und in der Leiste einfügen. Jetzt kann der Networkmanager mit dem Befehl:

    nm-applet

    gestartet werden.

    Eine Verbindung zu WPA (2)-gesicherten Netzwerken funktioniert, aber leider vergisst der NW den Key nach jedem Neustart. An diesem Thema bin ich dran und poste eine Lösung in diesem Artikel, sobald ich etwas herausfinde.

    Ich werde diese Anleitung in den nächsten Tagen evtl. noch etwas überarbeiten und einige Dinge noch ausführlicher beschreiben.


    Mit dem Erscheinen von Lucid Lynx als LTS-Version habe ich mich entschlossen, eine frische Komplettinstallation auf meinem MacbookPro4,1 durchzuführen, um so auch diverse eventuelle Altlasten loszuwerden.

     

    1. Backup

    Zunächst mache ich ein Backup meines Home-Ordners auf eine externe Festplatte. Dies betrifft sowohl den Home-Ordner der OSX-Installation als auch den von Karmic.

     

    2. Installation von OSX

    Nach dem Backup starte ich mein Book mit der SnowLeopard-Install-DVD. Es wird empfohlen, auf Apple-Rechnern immer auch OSX zu installieren, da über die Softwareaktualisierung immer auch Firmware-Updates eingespielt werden.

    Bevor die Installation losgehen kann, starte ich das Festplattendienstprogramm und partitioniere die Festplatte neu:

    1. 80GB HFS+ Journaled für OSX
    2. den Rest (250 GB) als FAT32 für Ubuntu (wird später noch umgewandelt)

    Jetzt kann OSX auf die erste Partition installiert werden.
    Nachdem OSX das erste Mal hochgefahren ist, installiere ich rEFIt. Hierdurch wird es mir ermöglicht, beim Einschalten des Mac das Betriebssystem auszuwählen.

     

    3. Installation von Ubuntu Lucid Lynx

    Ich habe mir die 64-Bit-Version von Lucid auf eine CD gebrannt. Von dieser starte ich nun mein MacbookPro.

    • Es sollte sich nun das UBUNTU-Menü melden. Ihr könnt gerne zunächst “UBUNTU ausprobieren”. Ich habe direkt “Installieren” gewählt.
    • Die Installationsangaben (Sprache, Uhrzeit, Tastatur) sind soweit selbsterklärend. Wichtig ist erst die Stelle “Partitionierung”. Hier wählt man “Manuell festlegen”. In der erscheinenden Partitionstabelle sind alle Festplatten mit ihren Partitionen aufgelistet. Hier wählt man die UBUNTU-Partition aus (ich hab sie an der Größe der Partition 250GB erkannt). Ihr solltet euch die Bezeichnung der Partition (bei mir: /dev/sda3) unbedingt merken! Die wird später noch benötigt!
    • Wähle also die Partition aus und klicke auf “Partition bearbeiten”. Hier stellst du unter “Benutzen als”: Ext4 ein. Als “Einhängepunkt” wählst du “/“, machst ein Häkchen bei “Formatieren” und klickst OK.
    • Wähle die Partition aus und klicke auf “Vor”.
    • UBUNUTU fragt dann noch nach, wie es mit einer SWAP-Partition wäre, was aber von uns ignoriert wird, da wir später ein SWAP-File einrichten.
    • Gebe nun deine Userdaten ein und klicke dich zur “Zusammenfassung”. Hier wählst du unten “bearbeiten” aus. Es öffnet sich ein Fenster, und du siehst nun einen Haken bei “Bootloader installieren” und eine Übersicht der Partitionen. Wähle hier auf keinen Fall “Mac OSX” aus! Die gesuchte Partition ist diejenige, die wir uns oben bei der manuellen Partionierung gemerkt haben (bei mir ist das /dev/sda3)
    • Nun kann man “Ok” und “Installieren” klicken.
    • Die Proxy-Einstellungen hab ich leer gelassen (da ich kein Proxy nutze).
    • UBUNUTU installiert nun (bei mir) sauber durch. Zum Schluss wird neu gestartet und die CD entfernt.
    • rEFIt bootet hoch. Rechts steht bei mir “Boot Linux from HD”. Das war’s! UBUNTU fährt hoch!

     

    4. Konfiguration von Lucid Lynx

    • Nachdem Lucid hochgefahren ist, aktiviere ich noch die proprietären Treiber für WLAN und NVIDIA. Hierfür hab ich mein Book kurz per Kabel ans LAN gehängt, damit die Pakete auch gefunden werden können. Nach einem Neustart habe ich WLAN und 3D-Beschleunigung.
    • Jetzt richte ich mir eine SWAP-Datei ein, die so groß ist wie mein RAM (4GB). Solltet ihr mehr oder weniger RAM besitzen, müsste ihr den zweiten nachfolgenden Befehl entsprechend umändern (count=4100 steht für 4GB). Mehr Infos dazu hier.
      sudo mkdir -p /var/cache/swap/
      sudo dd if=/dev/zero of=/var/cache/swap/swap0 bs=1M count=4100
      sudo mkswap /var/cache/swap/swap0
      sudo chmod 0600 /var/cache/swap/swap0
      sudo swapon /var/cache/swap/swap0
      

      Damit die SWAP-Datei auch nach einem Neustart verwendet wird, trägt man in /etc/fstab folgendes ein:

      /var/cache/swap/swap0    none    swap    sw      0 0
    • Da standardmäßig die Funktionstasten aktiviert sind, muss ich hier immer die Fn-Taste drücken, um zB ein F2 auszuführen. Das Ganze kann man aber auch umkehren. Hierzu erstellt man die Datei /etc/modprobe.d/hid_apple.conf und gibt ihr folgenden Eintrag:
      options hid_apple fnmode=2

      Anschließend muss noch folgender Befehl ausgeführt werden:

      sudo update-initramfs -u

      Nach einem Neustart funktionieren die Sondertasten wie von mir gewünscht.

     

    5. Zusatzpakete

    Tja, das schöne an Linuxdistributionen ist ja, dass man seine Lieblingsprogramme meist direkt aus dem Repository nachladen kann. Ich installiere unter Lucid folgende Zusatzpakete:

    sudo apt-get install audacity audex bb compizconfig-settings-manager cowsay curl dosbox easytag epiphany-browser evolution-plugins-experimental faac faad ffmpeg figlet flac fortunes fortunes-de gcolor2 gftp gimp id3v2 kile krdc krename kubuntu-desktop lame lbreakout2 mc mencoder mp3diags mp3splt mplayer nautilus-script-audio-convert ntp openssh-server pidgin p7zip-full pdfsam python-apsw qemu-kvm rar rekonq revelation samba shutter streamripper syncevolution tuxpaint ubuntu-restricted-extras unison unrar vbrfix vim vlc vorbis-tools wakeonlan wine wput x11vnc xchat xpm2wico

     
    Da ich nun die ubuntu-restricted-extras installiert habe, kann ich mittels

    sudo /usr/share/doc/libdvdread4/install-css.sh

    die libdvdcss zur Wiedergabe meiner kopiergeschützten DVDs nachinstallieren.

     

    6. Fazit

    Ubuntu Lucid Lynx läuft hervorragend auf meinem MacbookPro4,1 :-)

    Mit dem Erscheinen von Lucid Lynx als LTS-Version habe ich mich entschlossen, eine frische Komplettinstallation auf meinem MacbookPro4,1 durchzuführen, um so auch diverse eventuelle Altlasten loszuwerden. 1. Backup Zunächst mache ich ein Backup meines Home-Ordners auf eine externe Festplatte. Dies betrifft sowohl den Home-Ordner der OSX-Installation als auch den von Karmic. 2. Installation von OSX Nach dem Backup starte ich mein Book mit der SnowLeopard-Install-DVD. Es wird empfohlen, auf Apple-Rechnern immer auch OSX zu installieren, da über die Softwareaktualisierung immer auch Firmware-Updates eingespielt werden.

    Lucid Lynx steht vor der Tür, und so mancher Rechner wartet in den nächsten Wochen sicherlich darauf, auf die neue Version aktualisiert zu werden. Damit ist jedoch auch zunächst eine ganze Download-Orgie verbunden: Wählt man die Upgrade-Prozedur über die Aktualisierungsverwaltung, müssen alle zu aktualisierenden Pakete auf jedem Rechner heruntergeladen werden. Das belastet nicht nur die Server, es dauert auch einfach – je nach Verbindung – ziemlich lange. Da wäre es doch sinnvoll, wenn man die Pakete nur einmal runterladen muss, und sie dann auf verschiedenen Rechnern verwenden kann. Dazu gibt es verschiedene Lösungen, eine recht unkomplizierte möchte ich hier kurz vorstellen: apt-cacher-ng. (Im Wiki von Ubuntuusers gibt es die Anleitung in voller Länge; hier nur die Schnellversion.)

    Zwischenspeicher einrichten

    Zunächst sollte man einen Rechner als Zwischenspeicher wählen. Dieser lädt alle Pakete runter, und stellt sie anderen Rechnern im Netzwerk zur Verfügung. Sollte ein anderer Rechner ein Paket anfordern, dass er selbst noch nicht im Zwischenspeicher hat, lädt er auch dieses und fügt es so dem allgemeinen Paketpool hinzu. Dazu ist erst einmal nicht mehr nötig, als das Paket apt-cacher-ng zu installieren. Will man die Konfiguration in den Standardeinstellungen übernehmen, was ich getan habe, ist nicht mehr zu tun.

    Paketverwaltung auf den Zwischenspeicher umlenken

    Nun muss noch allen Rechnern gesagt werden, dass sie aus dem gemeinsamen Zwischenspeicher herunterladen sollen. Auch der Rechner, der den Zwischenspeicher bereitstellt, sollte entsprechend eingerichtet werden, damit auch er beim Herunterladen fleißig den gemeinsamen Pool befüllt. Daher führt man auf dem Rechner mit dem Zwischenspeicher folgenden Befehl aus:
    echo 'Acquire::http { Proxy "http://localhost:3142"; };' | sudo tee /etc/apt/apt.conf.d/01proxy
    Auf allen anderen Rechnern gibt man statt „localhost“ die Netzwerkadresse des Rechners an. Das kann die IP sein, im lokalen Netzwerk dank Avahi aber auch einfach „rechnername.local“. Ab jetzt werden alle Pakete aus dem gemeinsamen Zwischenspeicher bezogen.

    Wer zu spät kommt, kriegt noch eine Chance

    Was aber, wenn man auf einem Rechner schon die Aktualisierung durchgeführt hat, bevor apt-cacher-ng eingerichtet war? In diesem Fall kann man die Pakete auch nachträglich dem Pool hinzufügen. Dazu sollte man aber jetzt den entsprechenden Rechner einrichten, und einmal die Paketquellen aktualisieren („apt-get bzw. aptitude update“). Das ist nötig, damit apt-cacher-ng die Pakete ihrer Herkunftsquelle zuordnen kann. Nun verlinkt man die vorhandenen Pakete aus dem üblichen apt-Zwischenspeicher in den Pool von apt-cacher-ng:
    sudo mkdir -p /var/cache/apt-cacher-ng/_import
    sudo chown apt-cacher-ng /var/cache/apt-cacher-ng/_import
    sudo cp -al /var/cache/apt/archives/* /var/cache/apt-cacher-ng/_import/ 
    Nun besucht man mit im Browser die Seite http://localhost:3142/acng-report.html. Ganz am Ende der Seite (die übrigens auch so nette Statistiken über den Cache zeigt), kann man dann den Import über den entsprechenden Button starten.

    Dem Spuk ein Ende bereiten

    Da der Cache-Rechner nicht unbedingt immer läuft, kann es auch sein, dass man nach dem großen Upgrade lieber wieder auf den Zwischenspeicher verzichten will. Dies ist zum Glück sehr einfach, auf den Clients ist nur folgendes auszuführen:
    sudo rm /etc/apt/apt.conf.d/01proxy
    Damit wird wieder der vorher eingestellt Download-Server verwendet.

    Creative Commons License
    Einmal runterladen, beliebig oft upgraden von Frederik Elwert steht unter einer Creative Commons Namensnennung-Keine kommerzielle Nutzung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz.
    Beruht auf einem Inhalt unter wiki.ubuntuusers.de.

    24. April 2010

    Update: Wie auch zahlreichen Reaktionen auf diesen Artikel zu entnehmen ist, ist es ist fraglich, ob das hier vorgestellte unfreie Programm Granola tatsächlich hält, was es verspricht.

    Eine nachweisliche Auswirkung auf den Stromverbrauch hat allerdings das sogenannte Undervolting, welches sich unter Ubuntu aber nur mit einem gewissen Aufwand nutzen lässt (nämlich durch das Kompilieren eines Kernels oder mit dem freien cpupowered). Der Benutzer Hall schlägt daher auf Ubuntu Brainstorm vor, diese Funktion besser in Ubuntu zu integrieren, damit auch normalen Anwender leichter davon profitieren können:

    Easy undervolting should be introduced!

    Mit dem für Privatanwender kostenlosen Closed-Source-Programm Granola (früher: MiserWare MircoWiser) lässt sich der Stromverbrauch von Computern ohne spürbaren Performance-Verlust senken und dadurch die Akkulaufzeit verlängern.

    Wenn der Computer nicht auf Hochleistung laufen muss, senkt die Software u.a. die Prozessorspannung. Wer genauer erfahren möchte, wie Granola arbeitet, kann dies auf der Homepage und in den FAQ nachlesen. Einen Teil habe ich dennoch ins Deutsche übersetzt:

    Die zugrundeliegende Magie ist eine Technologie, die sich dynamische Spannung und Frequenz-Anpassung oder DVFS nennt. Diese erlaubt Software, auf einem Computer mit weniger CPU-Energie zu laufen, ohne das System auszuschalten. […]

    Wenn ihr Computer hart arbeitet (zum Beispiel, wenn Sie ein Spiel spielen), muss die CPU mit voller Geschwindigkeit laufen, um effizient zu arbeiten. Wenn der Computer “relaxt” (zum Beispiel, wenn Sie eine Website besuchen), kann sich ihre CPU durch Verlangsamen selbst herunterregeln, ohne dass Sie etwas bemerken. In dem niedrigeren Stadium verbraucht die CPU weniger Energie, folglich macht es ihren Computer effizienter.

    GUI von Granola

    GUI von Granola

    Installation

    Granola gibt es für Windows und folgende Linux-Distributionen:

    • Debian 5.0, unstable
    • Fedora 8 – 12
    • RHEL 4 – 5
    • SLES 10
    • Ubuntu 7.04 – 10.04

    Ein Skript fügt unter Ubuntu und anderen Linux-Distributionen zunächst eine Paketquelle hinzu:

    wget -q -O - http://grano.la/download/linux_installer.php | sudo bash

    Unter Ubuntu lassen sich Paketquelle und GPG-Schlüssel alternativ auch mit folgenden Befehlen hinzufügen (karmic muss ggf. durch die verwendete Ubuntu-Version ersetzt werden):

    sudo sh -c "echo 'deb https://download.miserware.com/linux/deb karmic main' >> /etc/apt/sources.list"
    wget -q https://download.miserware.com/RPM-GPG-KEY-MiserWare && sudo apt-key add RPM-GPG-KEY-MiserWare && rm RPM-GPG-KEY-MiserWare

    Nach dem Einlesen der Paketlisten kann Granola installiert werden (granola-gui ist optional):

    sudo apt-get update
    sudo apt-get install granola granola-gui

    Alternativ lassen sich die Pakete für die jeweilige Distribution auch manuell herunterladen und installieren.

    Der Daemon granola steuert nun die Prozessorleistung und wird beim Hochfahren automatisch gestartet. Ob dieser läuft, kann mit folgendem Befehl überprüft werden (die GUI startet den Daemon nämlich nicht automatisch):

    /etc/init.d/granola status

    Falls das nicht der Fall sein sollte, kann man den Daemon mit folgendem Befehl starten (sollte normalerweise nicht notwendig sein):

    sudo /etc/init.d/granola start

    Konfiguration

    Die meisten “Settings” betreffen die Statistik, welche im Programmfenster von Granula angezeigt werden.
    Granola enthält offenbar einen Bug, da die Einstellungen bei mir nicht gespeichert werden. Weiter schlimm ist das nicht, da man ohnehin nicht Wichtiges konfigurieren muss.

    Set Energy Price…

    Hier lässt sich der Preis pro kWh in USD einstellen (Währungsumrechner).

    Management Policy

    • Lowest Speed: Maximale Energieeinsparung, was jedoch auf Kosten der Performance geht
    • MiserWare: Granola passt die Prozessorleistung an die Nutzung des Computers an (Standard)
    • Highest Power: Keinerlei Energieeinsparung, da der Computer mit voller Leistung und maximaler Performance läuft

    Unit of Currency

    Währung auswählen: Dollar (USD) oder Pfund (GBP).

    Reporting Time

    Konfigurieren, ob die Einsparungen auf 1 Jahr hochgerechnet (“Annual”) oder als Summe (“Cumulative) angezeigt werden sollen.

    CO2 Measurement

    CO2-Einsparung zwischen Lb und Kg umstellen.

    Tipp: Prozessortaktstufen im Panel anzeigen

    Wenn man sich das Applet “Überwachung der Prozessortaktstufen” zum Gnome-Panel hinzufügt, kann man beobachten, wie Granola arbeitet und die Taktung dynamisch anpasst.

    EDIT: Hinzufügen der Paketquellen auf Wunsch von adun erweitert.

    Gerade bin ich dabei meinen virtuellen Server stückweise einzurichten. Neben den funktionellen Einstellungen fällt natürlich mein Augenmerk auch auf den Punkt Verschlüsselung. Der Indianer hört auf Rauchzeichen vom Stamm der 443, SSH ist von Natur aus schon verschlüsselt, bei FTP hört es aber auf. Da ich desöfteren von unterschiedlichen Netzen aus per FTP zugreifen möchte, ist eine Verschlüsselung unabdingbar. Hier könnte man natürlich ganz auf einen FTP-Dienst verzichten und über ftp via ssh marschieren. Dann ginge mir allerdings die Möglichkeit verloren, via SysCP neue Benutzer anzulegen, die keinen Benutzeraccount auf dem virtuellen Server haben.

    Um die Verbindung mit ProFTPD zu verschlüsseln geht man also wie folgt vor:

    1. Zertifikat generieren:
    Da es sich um eine SSL-basierte Verschlüsselung handelt, muss man zunächst einen privaten Schlüssel und ein Zertifikat erstellen:

    openssl req -x509 -newkey rsa:1024 -keyout /etc/ssl/private/proftpd.key -out /etc/ssl/certs/proftpd.crt -nodes -days 365

    Die Schlüsseldatei darf nur vom Benutzer root gelesen werden:

    chmod 0600 /etc/ssl/private/proftpd.key

    2. ProFTPD konfigurieren:

    Nun muss noch ProFTPD so konfiguriert werden, dass es Verbindungen über ftps erlaubt bzw. unterstützt. Hierzu öffnet man die Datei /etc/proftpd/tls.conf in einem Editor und setzt folgende Einstellungen:

    <IfModule mod_tls.c>
    TLSEngine                     on
    TLSLog                        /var/log/proftpd/tls.log
    TLSProtocol                   SSLv3
    TLSRSACertificateFile         /etc/ssl/certs/proftpd.crt
    TLSRSACertificateKeyFile      /etc/ssl/private/proftpd.key
    TLSVerifyClient               off
    TLSRequired                   on
    TLSRenegotiate                required off
    </IfModule>

    Ob man TLSv1 oder SSLv3 verwendet, hängt leider vom Klienten ab. Manche, wie z.B. Dolphin (via kio-ftps), beherrschen TLS noch nicht. Um die Änderungen zu übernehmen, muss man zuletzt ProFTPD neu starten:

    /etc/init.d/proftpd restart

    ProFTPD wird nun keine Verbindungen mehr akzeptieren, die über ftp hereinkommen. Stattdessen muss man das ftp(e)s-Protokoll verwenden.


    git-logo

    Man merkt bestimmt, dass mich Git im Moment sehr fasziniert. Es ist eine Mischung aus “Wow, ist das umfangreich” und “Ah Dokumentation ist alles”. Mittlerweile habe ich die verschiedensten Projekte in meinen Git-Server ausgelagert. Sogar meine Tiddlywiki hab ich aufgelöst und als Git-Repo umgesetzt.

    Ich las jedenfalls viel in www.progit.org. Progit ist übrigens auch ein sehr schönes Projekt. Es stellt eine Dokumentation für alle Sprachen über Git dar. Diese Dokumentation ist auf Github für jeden forkbar und jeder kann theoretisch daran mitwirken.

    Ich schweife schon wieder ab. In Progit findet man eine wundervolle Beschreibung wie man in Git einzelne Workflows bzw Branches verwaltet und wie man am effektivsten mit ihnen arbeitet. Angenommen ich habe bereits in einem bestehenden Projekt ca. 5 Commits und möchte aber vom Inital-commit noch einmal anfangen, um in eine andere Richtung weiterzuentwickeln.

                Master
                |
    o--o--o--o--o

    Sieht das ca so aus. Es besteht nun die Möglichkeit (und das ist der Grund warum ich diesen Post hier verfasse) eine neue “Entwicklungssparte” aka Branch zu starten und auf Anfang zu setzen.

    Initial     Master
    |           |
    o--o--o--o--o

    # Neuen Branch erstellen namens inital
    git branch initial

    # Branches anzeigen
    git branch -a -v
    * master                 0bfb896 removed r_error() and added some comments
    remotes/origin/HEAD    -> origin/master
    remotes/origin/initial d6600f1 First inital commit
    remotes/origin/master  0bfb896 removed r_error() and added some comments

    # Branche initial auf spezielle Commitnummer setzen
    echo "d6600f10479bb2d0d69aa8086ebe4e3149d4ef76" >> roborobo.git/.git/refs/heads/initial

    # In den neu erstellten Branch wechseln
    git checkout initial

    # Via git log kontrollieren
    git log

    # neuen Branch zum Server pushen
    git push origin initial

    Weiterhin angenommen ich entwickle in der neuen Spalte “initial” weiter und commite das wiederrum dürfte das bild so aussehen:

    Initial
       |
    o--o        Master
    |           |
    o--o--o--o--o

    <3 Git.

    23. April 2010

    Durch Zufall bin ich heute über Guayadeque gestolpert. Dabei handelt es sich um eine Musikverwaltung wie beispielsweise Rhythmbox. Ich bin ja schon länger auf der Suche nach einer guten Musikverwaltung – eigentlich so lange ich Ubuntu nutze. Aus lauter Verzweiflung habe ich mich zwischenzeitlich sogar mit Konsolen-Minimalismus angefreundet. Das Problem: Amarok2, Rhythmbox, Exaile, Listen und wie sie alle heißen sind entweder recht wackelig unterwegs, kommen mit großen Musiksammlungen nicht klar oder haben ein Bedienkonzept, das einen an der eigenen Auffassungsgabe zweifeln lässt.

    Wie auch immer: Guayadeque kommt mit großen Sammlungen sehr gut zurecht und ist dabei noch zügig unterwegs. Die einzelnen Panels lassen sich einfach und intuitiv anordnen, überflüssige Informationen/Filter werden mit einem Klick entfernt.

    Sehr gut gefällt mir auch der Smart Mode, der die Wiedergabelist auf Wunsch mit ähnlich klingenden Stücken auffüllt (wobei ich auf die Schnelle nicht rausfinden konnte, ob dafür LastFM befragt oder tatsächlich das Musikstück ausgewertet wird).

    Auch beliebte Funktionen wie Coverbrowser, LastFM-Integration, Liedtext-Anzeige, Bewertungen und Cover-Download gibt es. Insgesamt macht Guayadeque (trotz der Verwendung von wxWidgets :P ) einen recht runden Eindruck. Ich empfehle aber die SVN-Version, weil die einige neue Funktionen und vor allem eine halbwegs anständige deutsche Übersetzung bietet.

    Weitere Informationen gibt es imm UU-Wiki und auf der Homepage von Guayadeque. Viel Spaß beim Ausprobieren :) .

    Seit vier Wochen gibt es jetzt die Treiberversion 2.11 und bisher funktioniert diese sehr gut mit Lucid Lynx. Leider hab ich gestern Abend festgestellt, dass man zwingend eine neuere Version der libdrm (2.4.20) als die von Lucid mitgelieferte benötigt (2.4.18), damit der Treiber sauber kompiliert. Der Treiber kompiliert zwar auch mit der Version 2.4.18, aber nur wenn man einen bestimmten Git-Commit wieder rauspatcht.

    Solange es bei einem Commit bleibt, ist die Sache noch in Ordnung. Aber man muss davon ausgehen das die nächsten Versionen des Treibers viel stärker von der aktuellen libdrm abhängen und es dann schwierig bis unmöglich wird die Änderungen rückgängig zu machen bzw. passend auf die ältere Lucid-libdrm zurückzuportieren.

    Deshalb habe ich jetzt folgende Änderung am Treiber durchgeführt :

    Es wird zwingend die Version 2.4.20 oder höher der libdrm benötigt. Um diesen Umstand Rechnung zu tragen habe ich ein zusätzliches PPA mit eben jener Bibliothek eingerichtet. Dieses lässt sich über die folgenden Befehle aktivieren :

    sudo add-apt-repository ppa:glasen/libdrm
    sudo apt-get update
    sudo apt-get upgrade

    Ohne dieses PPA lässt sich der Intel-Treiber aus dem PPA nicht mehr installieren. Auf diesen Umstand weise ich auch explizit in den Paketbeschreibungen des Treibers hin.

    Informationen zum PPA gibt es unter dem folgenden Link :

    libdrm for Intel Driver 2.11git

    In Ubuntu 10.04 hat Canonical ja bereits die sogenannten “Indikatoren”, welche Systemnachrichten dauerhaft verfügbar machen und Statusmeldungen anzeigen, kräftig verbessert.

    Die Indikatoren wurde eingeführt, da Ubuntus “notify-osd”-Benachrichtigungen keine Abfragen enthalten dürfen und zudem nach einer gewissen Zeit verschwinden. Die Indikatoren haben die Aufgabe, eben diese flüchtigen Informationen bereit zu halten und Nutzerinteraktion mit betreffenden Anwendungen zu ermöglichen.

    Nun will man in Sachen Indikatoren noch einen Schritt weiter gehen. So soll schon die nächste Ubuntuversion tiefgreifende Änderungen am Indikatorsystem enthalten und mit Ubuntu 12.04 LTS soll dann auch dessen API vollständig stabil sein.

    Ziele für die Überarbeitung der Indikatoren nennt Mark Shuttleworth auf seiner Website. Diese sind im Wesentlichen folgende, wie er in seinem Blog schreibt: (keine wörtliche Übersetzung!)

    • Unterstützung von GNOME und KDE. Beide Desktops sind wichtig für Ubuntu. Die Teams sollen sich eine einzigartige Vision für jede Oberfläche überlegen, gleichzeitg wollen Nutzer aber auch GNOME Anwendungen unter Kubuntu ausführen und umgekehrt. Also muss sicher gestellt werden, dass die Arbeit von Entwicklern beider Welten begutachtet wird, und wir müssen APIs zu Verfügung stellen, die in beiden Umgebungen laufen.
    • Barrierefreiheit. Indikatoren brauchen besondere Aufmerksamkeit durch den Nutzer. Egal, ob man wissen will ob man mit einem Netz verbunden ist, wie viel Uhr es ist, ob man online ist, ob die Batterie noch voll genug ist oder ob Nachrichten vorliegen… Alle diese Informationen sind wichtig, und es muss sichergestellt sein, dass sie leicht zu erreichen sind.
    • Vertrautheit und Innovationen. Wie immer, gibt es Spannungen zwischen diesen beiden Aspekten. Innovation hilft uns, freie Software weiter vorran zu brigen, birgt aber auch das Risiko, die Nutzergewohnheiten und Erwartungen zu missachten.
    • Konsistenz und Nutzbarkeit. Wir möchten das Projekt als Ganzes besser benutzbar machen, und wir wollen auch auf Individualität verzichten, wenn es sinnvoll ist und den Gesamtwert des Projektes zu steigert. (Das bedeutet wohl, dass das Indikatorsystem auch in anderen Distributionen möglichst als Standard eingesetzt werden soll)
    • Rationalisierung. Aktuell gibt es zu viele Indikatoren, die in ihrer Bedeutung nicht immer klar sind. Es gibt auch viele Indikatoren von anderen Anwendungen, die meistens alle das gleiche tun, nur auf verschiedene Art. Der Wert aller Indikatoren wird erhöht, wenn es weniger davon gibt und sie für den Nutzer verständlicher sind.

    Insgesamt finde ich die Bemühungen von Canonical sehr löblich. Allerdings lösen sie – mal wieder – ein meiner Meinung nach nicht existierendes Problem. Mal ernsthaft: Wer war schon mal über zu viele Symbole im Tray verwirrt? Und würden solche Indikatoren – sollte man mal mit den Trayicons durcheinander kommen – dieses Problem wirklich lösen? Anstelle von mehreren Symbolen müsste man sich im Indikator durch ein umständliches Menü bewegen.

    Sehr gute Ansätze finde ich hingegen im Konzept, über einen Indikator schnell (E-Mail) Nachrichten schreiben zu können, obwohl das eigentliche Programm, welches diese Aufgabe erledigen soll, nicht läuft. Diese Möglichkeit, mittels DBus-Aktivierung Anwendungen nach Bedarf und nach Aktivität zu aktivieren gefällt mir sehr. Auch dass der XDG-Standard “DBus-Menu” von KDE verwendet wird, ist eine sinnvolle Sache.

    Trotzdem stellt sich mir die Frage nach der Sinnhaftigkeit eines solchen Projektes: Mit GNOME3 gibt es ein völlig neues Bedienkonzept und ein völlig neues Benachrichtigungssystem. Warum sollte man jetzt bei Ubuntu mit noch einem Weiteren beginnen? Zum Anderen ist da noch die Sache mit der KDE-Integration: Es ist toll, dass Ubuntu etwas für die Interoperabilität beider Oberflächen tun will – jedoch hat KDE bereits ein Nachrichtensystem, welches IMO sehr nahe am Optimum liegt. Und Canonical ist schon einmal damit gescheitert, Patches für KDE-Anwendungen in Upstream zu integrieren, um das eigene System zu aktivieren. Zudem wird es auch mit GNOME3 schwierig, die Patches nach Unpstream zu bringen, falls sich die GNOME-Entwickler tatsächlich auf das neue Panel-Konzept einigen.

    Ich bin mal gespannt, was aus dem Projekt wird… Allgemein würde ich aber sagen, dass es besser gewesen wäre, sich mit den GNOME3-Entwicklern und KDE-Entwicklern an einen Tisch zu setzen und gemeinsam unter dem Dach von Freedesktop einen Standard zu entwickeln. Denn so trägt dieses Projekt, welches eigentlich eine Art “Einheit” in der Linuxwelt zum Ziel hat, doch nur zur weiteren Fragmentierung bei.

    Quelle: Mark Shuttleworths Blog