ubuntuusers.de

3. Juni 2010

Ein kleines Tool namens “NotifyOSD Configuration” schafft Abhilfe, indem es grafisch die Konfiguration des Benachrichtigungssystems “NotifiOSD”ermöglicht.


Über MakeTechEasier bin ich auf ein recht praktisches Tool gestoßen, mit dem es endlich möglich ist, das Benachrichtigungssystem “NotifiOSD”, welches seit Jaunty Standard von Ubuntu ist, ohne große Mühe optisch anzupassen.

Download und Installation

Ein Terminal öffnen und folgende Befehle nacheinander eingeben:

Da es sich bei der hinzuzufügenden PPA  um eine Fremdquelle handelt, empfiehlt es sich diese nach der Installation des Programmes wieder zu Entfernen

 
sudo add-apt-repository ppa:leolik/leolik sudo add-apt-repository ppa:amandeepgrewal/notifyosdconfig sudo apt-get update && sudo apt-get upgrade

notifyosdconfig (universe)

Zu Starten über: “Anwendungen” ->” Zubehör” -> “NotifyOSD Configuration

Anpassen von NotifyOSD

Notify OSD Configuration

Jetzt kann mit der Konfiguration losgelegt werden. Nach dem Start von” NotifyOSD Configuration” hat man ein recht einfach zu bedienendes Fenster vor sich. “NotifyOSD” ist in zwei Tabs unterteilt: Bubble, in dem das Aussehen des Benachrichtigungssystem angepasst wird (Hintergrundfarbe, Transparenz Eckenradius etc.), und Text, hinter dem sich die Anpassung des Textes in der Benachrichtigungsblase (Textfarbe, Größe, Schatten, Transparenz etc.) verbirgt.

Oberhalb der zwei Tabs befindet sich das Menü zur Festlegung der Position (Fixed oder Dynamic) und der Anzeigedauer von NotifyOSD.

Ist ein neues Theme konfiguriert, so wird es mit “Apply” angewendet.

Theme Speichern und Laden

Nach der Anpassung kann das neue Theme optional auch gesichert werden. Dazu wird auf: “File” -> “Save Theme“-> “New Theme” geklickt und unter einem Namen freier Wahl gespeichert.

Soll ein gespeichertes Theme geladen werden, so geht man wie folgt vor: “File” -> “Load Theme” -> und lädt das ausgewählte Theme.

Gespeichert werden die Themes im Home Verzeichnis von Nautilus (Dateimanager von Ubuntu) unter “/home/Name des Users/.notifyosdconf“. Da dies ein versteckter Ordner ist ( Der Punkt vor dem Ordnernamen sagt ob der Ordner versteckt werden soll) muss die Tastenkomination “STRG + H” ausgeführt werden, damit der Ordner angezeigt wird. Über “Ansicht” -> “Verborgene Dateien anzeigen” werden versteckte Ordner auch sichtbar.

Zurücksetzen

Über “File” -> “Reset” werden alle Einstellungen verworfen und das Standardtheme von NotifyOSD wieder ausgeführt.

Fazit:

Das Programm ist sehr praktisch und übersichtlich, so dass man es immer wieder gerne aufruft, um das “NotifyOSD” dem momentan verwendeten Gnome-Theme anzupassen.


Umfrage:

Note: There is a poll embedded within this post, please visit the site to participate in this post's poll.


Quellen: MakeTechEasier

Für Freunde des Maskottchen von Linux auch Tux genannt, hält Tschibo derzeit etwas bereit. Einen Pinguin-Rollkoffer oder eher Köfferchen, so für die nächste Vortragsreise durchaus geeignet :D Mir ist der Spaß aber einfach mal zu teuer, soll nämlich 39,95 € kosten.

Ubuntu 10.04 ist nun schon seit über einen Monat draußen und ich bin grundsätzlich sehr zufrieden damit. Probleme und größere Bastelein sind derzeit Fehlanzeige. Auch das ist ein Grund dafür, dass es hier im Blog derzeit etwas ruhiger ist.

Aber ein kleines Problemchen gibt es, dass mich schon ein bisschen ärgert. Nach dem Brennen von CDs und DVDs werden Medien nicht mehr automatisch ausgeworfen. Stattdessen bekomme ich diese Meldung:

Autmatischer Auswurf unter Lucid nicht möglich?

Dieses Problem existiert bei mir erst seit dem Update auf Ubuntu 10.04. Auch nach der Neuinstallation, die ich kurz nach dem Release gemacht habe, ist dieser kleine Bug nicht behoben.

Nun frag ich mich, ob es an meinem Laufwerk liegt oder ob auch andere das Problem haben. Und noch viel mehr würde mich interessieren wie man es gelöst bekommt. Dazu habe ich leider noch nichts finden können.

Die neue Version von Ubuntu 10.04 ist nun schon eine Zeit lang veröffentlicht worden, viele werden wohl auch schon mit der neuen Version arbeiten.
Auch ich habe kurz nach der Veröffentlichung ein Upgrade gewagt, leider jedoch ohne Erfolg.
Leider hat Compiz und der Nvidia-Treiber ein Problem mit der neuen Ubuntu-Version, weshalb ich dann mein System auch neu aufsetzen musste. Und ab da funktioniert auch alles wieder :)

Nun ist aber schon einige Zeit vergangen und es ist mal an der Zeit um eine Bilanz zu ziehen.
Wie sieht es denn bei euch so aus?

Und interessant wäre auch noch wieso?

Mir ist eine Terratec Cinergy C PCI DVB-C Karte recht günstig in die Hände gefallen, die ich natürlich umgehend mit Ubuntu getestet habe. Laut linuxtv.org ist der benötigte mantis-Treiber ab Kernel 2.6.33 direkt im Kernel, doch leider kommt Ubuntu Lucid mit einem älteren Kernel daher. Von daher muss man ein paar Klimmzüge machen, um die Karte zum Laufen zu bekommen. Doch wenn man weiß wie, ist das eigentlich in wenigen Minuten erledigt.

Erstmal kurz zur Karte selber. Die Karte meldet sich als “Twinhan Technology Co. Ltd Mantis DTV PCI Bridge Controller” im System. Nach der Installation des Mantis-Treiber meldet lspci folgendes…

$ lspci -v
[...]
01:06.0 Multimedia controller: Twinhan Technology Co. Ltd Mantis DTV PCI Bridge Controller [Ver 1.0] (rev 01)
	Subsystem: TERRATEC Electronic GmbH Device 1178
	Flags: bus master, medium devsel, latency 32, IRQ 16
	Memory at fdeff000 (32-bit, prefetchable) [size=4K]
	Kernel driver in use: Mantis
	Kernel modules: mantis
[...]

Wie eingangs erwähnt sollte die Karte ab Kernel 2.6.33 von Haus aus funktionieren, daher war meine erste Idee in Ubuntu Lucid den Mainline-Kernel zu installieren. Dieser brandneue Kernel lief erstaunlich gut, doch gerade der Mantis-Treiber ist aktuell im Kernel deaktiviert.

$ grep -in mantis /boot/config-2.6.34-*
3433:# Supported Mantis Adapters
3435:# CONFIG_MANTIS_CORE is not set

Daher habe ich mich an das Kompilieren des Kernel-Moduls gemacht, doch sowohl bei der manuellen Methode, wie auch beim Weg über DKMS gab es beim Kompilieren Fehler.

Mantis-Treiber aus PPA installieren

Bis das Kernelmodul von Haus aus von Ubuntu unterstützt wird (laut den Spezifikationen des Maverick-Kernels wird dies bei Ubuntu 10.10 der Fall sein), stellt die einfachste Lösung die PPA Paketquelle testing-vdr dar. Dort ist das Kernel-Modul s2-liplianin-dkms für Ubuntu Lucid enthalten.

Alternativ gibt es auch das PPA vdr-devel des VDR Teams, doch dort gibt es jedoch noch keine Pakete für Lucid. Was ist also zu tun? Zuerst muss die Paketquelle zur Paketverwaltung hinzugefügt und das Kernelmodul installiert werden. Dies könnt Ihr via…

$ sudo add-apt-repository ppa:yavdr/testing-vdr
$ sudo apt-get update && sudo apt-get install s2-liplianin-dkms

…schnell erledigen. Das anschließende Generieren des Kernel-Moduls kann dann eine Weile dauern, gebt der Sache also etwas Zeit. Sobald Ihr die Installation beendet habt, müsst Ihr den Rechner neu starten. Ihr könnt dann mittels dmesg überprüfen, ob die Karte nun auch vom System genutzt wird. Die Ausgabe sollte so aussehen…

$ dmesg | grep DVB
[   11.518004] found a VP-2040 PCI DVB-C device on (01:06.0),
[   11.565467] DVB: registering new adapter (Mantis dvb adapter)
[   12.130122] mantis_frontend_init (0): Probing for CU1216 (DVB-C)
[   12.310387] mantis_frontend_init (0): found Philips CU1216 DVB-C frontend (TDA10023) @ 0x0c
[   12.310391] mantis_frontend_init (0): Mantis DVB-C Philips CU1216 frontend attach success
[   12.310395] DVB: registering adapter 0 frontend 0 (Philips TDA10023 DVB-C)...

Das Kernelmodul bleibt euch auch bei Updates des Kernels erhalten, via DKMS wird es automatisch bei einem Kernelupdate neu generiert. Nun kann man sich daran zu machen auch tatsächlich Fernzusehen. Da ich keinen Media-Center-PC aufbauen möchte, reicht mir persönlich ein “normales” TV-Programm aus, daher kümmere ich mich gar nicht erst um XMBC und Co. Me TV reicht mir als GNOMEler völlig aus.

Nach Kanälen scannen und Me TV einrichten

Die wichtigsten Funktionen Fernsehen, EPG und Sendungen aufnehmen erledigt Me TV sehr gut. Das Programm gibt es in den Quellen von Ubuntu. Um später auch nach Kanälen scannen zu können, würde ich gleich w-scan mitinstallieren…

$ sudo apt-get install me-tv w-scan

Optional könnt Ihr vorher das me-tv-development PPA einbinden, dort bekommt Ihr die aktuelle Me TV Version. Die Quelle ist nicht uninteressant, da Me TV aktuell sehr aktiv entwickelt wird. Alleine im Mai gab es fünf neue Versionen des Projekts, mit dem PPA wärt ihr somit immer auf dem aktuellen Stand.

Sind die Pakete installiert, könnt Ihr nach Kanälen scannen. Eigentlich geht dies direkt aus Me TV heraus, doch zumindest bei mir wollte Me TV selber keine Kanäle finden. Mit w_scan ging das jedoch ohne Probleme, daher beschreibe ich diesen Weg.

$ w_scan -f c -c DE -R 0 -E 0 -X > ~/Desktop/channels.conf

Dies scannt das Kabel für DVB-C Kanäle in Deutschland und ignoriert dabei die Radio-Sender sowie PayTV-Angebote. Die letzte Option -X ist ganz wichtig für Me TV, ohne diese Option kann die channels.conf später nicht in Me TV importiert werden. Weitere Optionen bekommt ihr via $ wscan -H ausgeben.

Kleiner Hinweis am Rande: Überprüft ob diese Liste alle wichtigen Sender beinhaltet, bei mir fehlten alle Programme aus den RTL- und ProSiebenSat.1-Gruppen. Das Problem war die alte “nicht-breitbandige” Antennendose in der Wand. Diese filterte die Frequenzen 113 sowie121 Mhz aus den Bereichen S02/S03 heraus. (Siehe Wikipedia Kabelfernsehen -> Störungen) Somit konnten die Sender nicht empfangen werden, selbst wenn sie Kabel BW ausstrahlt.

Ein Problem gibt es mit dieser channels.conf noch. Wenn Ihr probiert sie in Me TV zu importieren, so wird das Programm die Aktion mit der Fehlermeldung “Ungültige Bytefolge in Konvertierungseingabe” abbrechen. Das Problem liegt an der Zeichencodierung der Ausgabe von w_scan. Me TV braucht die Datei als UTF-8 codierte Datei, w_scan schreibt jedoch direkt die Ausgabe aus dem Scan in die Datei. Die falsch codierten Sonderzeichen schmeißen Me TV dann jedoch aus der Bahn.

Zur Lösung des Problems könnt Ihr die channels.conf auf eurem Desktop mit gedit öffnen und sie dann via “Datei -> Speichern unter… -> Zeichenkodierung “Derzeitige Standorteinstellung (UTF-8)” mit der passenden Kodierung abspeichern.

Die channels.conf UTF-8 kodiert abspeichern

Nun habt Ihr sämtliche Vorarbeiten erledigt und könnt mit Me TV loslegen. Ihr habt es ja vorhin installiert, von daher solltet Ihr das Programm unter “Anwendungen -> Unterhaltungsmedien -> Me TV” finden. Direkt nach dem ersten Start erscheint ein Assistent, über den Ihr eure Kanalliste importieren könnt. Me TV sollte sie jetzt dank der passenden Kodierung anstandslos übernehmen.

Kanalliste in Me TV importieren

Danach ist es an euch die Kanalliste von unnötigen Sendern zu säubern und sie in eine brauchbare Reihenfolge zu bringen. Wundert euch bitte nicht warum der EPG im unteren Teil des Anwendungsfenstern nur einen Kanal pro Seite anzeigt, Ihr könnt die Anzahl der pro Seite dargestellten Sender in den Optionen von Me TV unter “Ansicht -> Preferences -> “EPG – Sender pro Seite” erhöhen.

Me TV mit HD Bild

Danach habt Ihr das Programm der wichtigsten Sender gut im Blick. Mit einem Rechtsklick auf das Fernsehbild könnt Ihr schnell zwischen den verschiedenen Ansichten hin- und herschalten und so den EPG auch bequem ausblenden.

HD-Inhalte ruckelfrei abspielen

Bei mir bestand anschließend noch das Problem, dass manche Sender (speziell HD-Kanäle) mit Aussetzern in Ton und Bild zu kämpfen hatten. Die Lösung die Größe des Puffers zu erhöhen findet sich in der Me TV FAQ How do I get HD channels working smoothly? Bearbeitet dazu die Konfigurationsdatei ~/.me-tv/xine.config mit einem Texteditor. Falls sie noch nicht existiert, wird sie automatisch angelegt…

$ gedit ~/.me-tv/xine.config

Fügt dann die folgenden Zeilen ein, speichert die Datei ab und startet Me TV neu…

engine.buffers.audio_num_buffers:300
engine.buffers.video_num_buffers:2500

Eventuell müsst Ihr an diesen Werten etwas rumspielen, bis Ihr ein Bild komplett ohne Aussetzer habt. Je nach Signalqualität und CPU ergeben sich immer wieder andere optimale Werte. Generell solltet Ihr den Puffer so klein wie möglich gestalten, da ein großer Puffer beim Senderwechsel erst einmal gefüllt werden will. Je größer der Puffer, desto länger bracht daher das Umschalten von einem Sender zum Anderen.

Fazit zu DVB-C

Lohnt sich der Aufwand und die Investition in eine digitale TV-Karte? Ich würde mal sagen “Jein”. Fernzusehen wird aufwändiger, aber auch einfacher. Meine alte analoge Hauppauge WinTV wird seit Jahren von Linux problemlos unterstützt, doch die Bildqualität ist extrem schlecht, das Bild der TerraTec Cinergy ist da schon um Welten besser.

Was mich nervt sind die langen Wartezeiten beim Senderwechsel. Zappen mit einer digitalen Karte kann man praktisch vergessen, aber um häufige Senderwechsel vergessen zu machen, gibt es ja einen elektronischen Programmführer.

Was mich an Me TV begeistert ist die Art das laufende Programm (bzw. kommende Sendungen) aufzuzeichnen. Mit einem Klick hat man Sendungen als MPEG-2 codierte Dateien auf der Platte, die man entweder direkt ansehen oder zum Archivieren via passendem Codec noch weiter komprimieren kann.

Wie es mit PayTV aussieht kann ich leider nicht sagen. Erstemal wären mir die Kosten dafür sowieso zu hoch und zweitens habe ich nur das Modell ohne zusätzliches CI-Modul. Wer Pay-TV nutzen will, oder vermeiden will, dass er – im Falle dass die privaten Sender eine Grundverschlüsselung durchsetzen – nachrüsten muss, der sollte gleich zur Terratec Cinergy C PCI inklusive internes CI-Modul greifen.

2. Juni 2010

Du bist ein Puzzle-Liebhaber? Aber deine Wohnung ist zu klein um einen Puzzletisch aufzustellen und der Esstisch kommt nicht in Frage? Dann könnte Palapeli etwas für dich sein.

Mit einem einfachen
sudo apt-get install palapeli
wird das Spiel aus den Quellen (erst ab Lucid) installiert. Da es Teil von KDE SC 4.4 ist, hat es mehrere Abhängigkeiten zu Qt4 und benötigt die kdelibs und die kdebase-runtime. Wer also nicht mit KDE arbeitet, muss sich auf zusätzlichen Ballast einstellen. Alternativen werden weiter unten genannt.

Palapeli

Sobald das Programm installiert ist kann der Spaß beginnen. Du kannst entweder eines der vorhandenen Puzzles spielen oder aus einer Bilddatei eines generieren lassen.

Palapelis Dialog zum Puzzle neu erstellen
Palapelis Dialog um ein Puzzle neu zu erstellen

Wenn du ein eigenes Puzzle erstellen willst müssen folgende Parameter bekannt sein:

  • Pfad und Dateiname des Bildes (jedes gängige Bildformat)
  • Puzzletyp (normale Puzzleteile oder Quadrate (vorsicht: schwieriger!))
  • Anzahl der Puzzleteile (die Größe richtet sich danach)
  • Name des Puzzles
  • Name des Autors

Sobald diese Werte bekannt sind einfach auf "Puzzle erzeugen" klicken und kurz darauf ist das neue Puzzle der Kollektion hinzugefügt. Per Doppelklick auf das Puzzle gelangst du auf den Puzzletisch. Und los geht!

Hier mein aktueller Stand bei einem 1000-Teile-Puzzle:


Gesamtansicht des Puzzletisches


Detailansicht

Wie du auf diesen Bildern schön erkennen kannst, können die Puzzlesteine beliebig auf dem Tisch platziert werden. Passende Teile verschmelzen und bleiben vereint. Zoomen ist mit dem Mausrad möglich, einen Stein nimmt man mit der linken, die Ansicht bewegt man mit der rechten Maustaste. Der eigentliche Puzzlebereich, der frei anpassbar ist, ist durch den helleren Hintergrund im ersten Bild erkennbar. Die Puzzlesteine selbst müssen/können nicht gedreht werden, sondern passen in ihrer Ausrichtung bereits.

Fazit

Wer die Geduld für ein Puzzlespiel mit der Maus aufbringt, wird schnell von der süchtig machenden Wirkung dieses Spiels überzeugt sein. Eine sehr gute Umsetzung, die nur mehr durch die Unterstützung von Touch-Bildschirmen verbessert werden kann. Für Hardcore-Puzzler wäre vielleicht noch die Möglichkeit die Steine drehen zu können interessant.

Alternativen

Alternativ kannst du das auf SDL basierende jigzo probieren, welches jedoch für Kinder gedacht ist und entweder aus einer kleinen Auswahl oder aus einem eignen Bild bis zu maximal 25-teilige Puzzles erstellt.
sudo apt-get install jigzo

Ein weiteres Puzzle-Programm welches ebenfalls Qt4 benötigt, jedoch keine KDE-Abhängigkeiten mitbringt ist tetzle. Dieses ist sehr an Tetris angelehnt. Die Puzzleteile entsprechen also Tetris-Bausteinen welche richtig zusammengelegt werden müssen um das Bild zu erhalten.
sudo apt-get install tetzle

Mit xjig gibt es eine Puzzle-Variante mit ganz einfacher GUI ohne weitere Abhängigkeiten dessen Parameter über die Kommandozeile übergeben werden müssen. Dafür ist xjig jedoch sehr stark anpassbar. Die Steine sind frei beweg- und drehbar und können durch umdrehen gespiegelt werden.
sudo apt-get install xjig

Creative Commons License
This work by Stefan Ohri is licensed under a Creative Commons Attribution-ShareAlike 3.0 Austria License

=-=-=-=-=
Powered by Blogilo


Einsortiert unter:GNU/Linux, KDE, Kubuntu, Ubuntuusers

Endlich 5.1 Sound ohne störende Nebengeräusche
Lange Zeit hatte ich ein Problem mit meinem Sound (Onboard Soundkarte mit ALC888 und ein Logitech G51 als Boxen). Stereo funktioniert alles super, doch wenn ich in Ubuntu auf 5.1 schalte, höre ich ein Rauschen bzw. Störgeräusche. Nach langem herum proben mit dem alsamixer, die Einstellungsmöglichkeiten bzw. Lautstärke-GUI von Ubuntu ist katastrophal, fand ich heraus, dass es am PCM Regler liegen könnte. Da standardmässig nur dieser Regler mit der Lauter/Leiser-Taste verbunden ist und ich keinen anderen Weg fand diesen zu "ersetzen", musste eine andere Lösung her.

Kanäle mit dem alsamixer richtig einstellen

Wie oben bereits angesprochen bin ich nicht gerade ein Fan der Audio-Einstellungen. Sieht zwar toll aus, bringt aber nichts, zumindest nicht bei mir. Damit ich den Subwoofer, Center usw. richtig einstellen konnte, musste ich auf den alsamixer zurückgreifen. Der mächtige alsamixer

Variante 1: Shortcuts/Multimediatasten definieren

So weit wurde am System nichts geändert. Damit ich nun zukünftig nicht mehr auf den PCM sondern auf den Master Regler zurückgreife, habe ich zuerst ganz einfach mit:

amixer -c 0 sset Master,0 1+

bzw.

amixer -c 0 sset Master,0 1-

unter System > Einstellungen > Tastenkombinationen eigene Befehle angelegt und diese meinen Lauter/Leiser-Tasten zugewiesen. Leider stellte mich dieses Resultat nur bedingt zufrieden. Bei dieser Möglichkeit wird keine optische Rückmeldung angezeigt, man muss also schätzen wann man etwa bei 50% angekommen ist.

Variante 2: Shortcuts/Multimediatasten definieren

Auf der Suche nach einer schöneren Lösung führt kein Weg an Notify vorbei.

sudo apt-get install libnotify-bin

Wieder einmal wurde ich im Forum von Ubuntuusers.de fündig. Auf meine Frage, ob jemand evt. eine Lösung hätte, fand scrawl eine Möglichkeit. Wir erstellen ein neues Script:

sudo gedit /usr/bin/vol.sh

und kopieren folgendes dort hinein:

#!/bin/sh
# created by abarilla
# modified by wujaklija
usage="usage: $0 [-c up|down|mute] [-i increment] [-m mixer]"

command=
increment=
mixer=

while getopts "c:i:m:h" o
do case "$o" in
c) command=$OPTARG;;
i) increment=$OPTARG;;
m) mixer=$OPTARG;;
h) echo "$usage"; exit 0;;
?) echo "$usage"; exit 0;;
esac
done

if [[ -z $command ]] || [[ -z $increment ]] || [[ -z $mixer ]]
then
echo $usage
exit 1
fi

#shift $(($OPTIND - 1))
#command=$1

#if [ "$command" = "" ]; then
# echo "usage: $0 {up|down|mute} [increment]"
# exit 0;
#fi

display_volume=0
echo "$mixer"
if [ "$command" = "up" ]; then
display_volume=$(amixer set $mixer $increment+ unmute | grep -m 1 "%]" | cut -d "[" -f2|cut -d "%" -f1)
amixer set PCM $increment+ unmute
fi

if [ "$command" = "down" ]; then
display_volume=$(amixer set $mixer $increment- unmute | grep -m 1 "%]" | cut -d "[" -f2|cut -d "%" -f1)
amixer set PCM $increment- unmute
fi

icon_name=""

if [ "$command" = "mute" ]; then
if amixer get Master | grep "\[on\]"; then
display_volume=0
icon_name="notification-audio-volume-muted"
amixer set $mixer mute
else
display_volume=$(amixer set $mixer unmute | grep -m 1 "%]" | cut -d "[" -f2|cut -d "%" -f1)
fi
fi

if [ "$icon_name" = "" ]; then
if [ "$display_volume" = "0" ]; then
icon_name="notification-audio-volume-off"
else
if [ "$display_volume" -lt "33" ]; then
icon_name="notification-audio-volume-low"
else
if [ "$display_volume" -lt "67" ]; then
icon_name="notification-audio-volume-medium"
else
icon_name="notification-audio-volume-high"
fi
fi
fi
fi
#notify-send -u normal -t 100 "$mixer"
notify-send "Volume" -i $icon_name -h int:value:$display_volume -h string:synchronous:volume
#notify-send "$mixer" -i $icon_name

Anschliessend müssen wir es noch ausführbar machen:

sudo chmod a+x /usr/bin/vol.sh

Nun kann man das Script z.B. mit:

vol.sh -c up -i 1 -m Master

benützen. Das Script kennt folgende Optionen:

/usr/bin/vol.sh [-c up|down|mute] [-i increment] [-m mixer]

Die Option -i kann nur Ganzzahlen entgegen nehmen.

Abschliessend legen wir nun die Tastenkombinationen fest. Wir weisen der Lauter-Taste also:

vol.sh -c up -i 1 -m Master

zu und analog ist leiser:

vol.sh -c down -i 1 -m Master

Nun haben wir eine schöne Anzeige und das Rauschen ist verschwunden!

Die erste Alpha-Version des womöglich im Sommer erscheinenden Opera-Browsers wurde freigegeben. Zahlreiche Fehler wurden behoben und die Oberfläche wurde überabeitet.


Opera 10.60 Alpha

Die Entwickler  von Opera-Software haben die Erste Alpha des Opera Browsers 10.60 freigegeben. Schneller als die Vorgängerversion soll sie sein und eine bessere Bedienoberfläche mit sich bringen. Außerdem wurde das User Interface (UI) überarbeitet: Der bisherige “O”-Button oben links wurde durch den Zusatz “Menu” ergänzt und soll nun einfacher auffindbar sein. Zudem wurden einige interne Tabs durch Symbole ersetzt und die Tab-Hover-Vorschauen haben ein Facelift erhalten.

Die Linux-, Mac- und Windows-Version des Browsers soll in Zukunft gleichzeitig erscheinen.

Mitte Sommer 2010 soll dann die Final von Opera 10.60 das Licht der Welt erblicken.

Download - Opera 10.60 Alpha für Ubuntu Linux

Die aktuelle Alpha-Version soll ausschließlich zu Testzwecken verwendet werden, da diese noch einige grobe Fehler, und noch nicht fertiggestellte Funktionen enthält. So werden z.B. unter Linux und Mac OS X manche Webschriftarten nicht vollständig dargestellt.

Wer die Alpha zum Test unter Ubuntu installieren möchte, kann sich folgende deb.-Pakete downloaden.

Von Ubuntu gibt es eine sogenannte Ultimate Edition, welche mehr Spiele enthält.


Die Ubuntu Ultimate Edition ist eine speziell für Spieler erweiterte Ubuntu-Version. Sie beinhaltet mehrere Spiele (OpenSource). Dazu zählen z.B. Glest, Battle for Wesnoth und Neverball.

Desktop der Ultimate Edition Gamers 2.6

Desktop der Ultimate Edition Gamers 2.6

Als weiteres Feature wird die Anwendung PlayOnLinux mitgeliefert, welche das Verwenden von Spielen und Programmen, die für Windows entwickelt wurden, unter Linux bzw. Ubuntu erleichtern soll.

Interressante Musik- und Videoprogramme  sind in der “UE” ebenfalls enthalten.

Die aktuelle Version, “Ultimate Edition Gamers 2.6″, basiert auf Ubuntu 10.04 Lucid Lynx und kann ab sofort heruntergeladen werden.


Quellen: Projektseite

Ganz verstehen tue ich das nicht. Mit einem Kollegen zusammen haben wir die ganze Zeit herumgedoktort und das Problem nicht gefunden. In der einen Installation wurde ein iPhone erkannt – in der anderen gar nicht. Teilweise ging es mit einem neuen Home – teilweise nicht. Wir haben kein System dahinter gefunden und auch im Internet keinen wirklichen Hinweis – vielleicht aber auch einfach falsch gesucht.

Nun muss ich im Planeten so ganz nebenbei lesen (hier), dass man das iPhone mindestens bei dem ersten connect entsperrt haben muss (hat nichts damit zu tun, ob eine PIN vergeben ist oder nicht). Das war nicht wirklich einfach zu finden. Daher möchte ich mit meinem Artikel einfach mal eine kleine Stichwortsammlung erstellen, damit andere die Probleme damit haben diesen Artikel finden können.

Words:

  • Rhythmbox erkennt iPhone nicht
  • iPhone Lucid Lynx, 10.04, Linux
  • Zugriff auf iPhone nicht möglich
  • libimobiledevice, usbmuxd
  • gtkpod
  • amarok(?)
  • iPod Touch
In 2,5 Monaten, genauer am 15. August, endet der Call for Papers der diesjährigen Ubucon, die vom 15.-17. Oktober an der Universität Leipzig stattfinden wird. Grund genug, kurz darauf hinzuweisen, dass man mit dem Tag #ubcde10 bei identi.ca oder dem anderen Microblogging-Dienst dazu Nachrichten loswerden kann.

Für die, die sich gar nichts unter einer deutschen Ubuntu Konferenz vorstellen können, habe ich hier einmal ein paar Links gesammelt.

Was ist die Ubucon?

Offizielle Seiten zur Ubucon 2009:

- Ubucon 2009
- Programm des letzten Jahres
- Begleitmaterial zu den Sessions
- Bilder-Gallerien

Nachlese auf anderen Seiten:
(Wer in die Liste möchte, schicke mir bitte eine Mail).

- RadioTux-Magazin-Sendung zur Ubucon - Ikhaya-Beitrag dazu

- Ikhaya-Nachlese der Ubucon 2009

- Communtu
- yaub - Yet another Useless Blog
- MacVillage.de
- ubuntublog.ch
- [ENC]BladeXP's Blog
- Dirks Logbuch

Hier im Blog sind mit dem Suchbegriff Ubucon auch reichlich Informationen und zusätzliche Links zu finden.

1. Juni 2010

Scheinbar wurden die beiden Software-Download-Seiten getdeb.net bzw. playdeb.net abgeschalten. Zumindest ist es nicht mehr möglich sie aufzurufen. Auch die Paketquellen scheinen nicht mehr zu funktionieren. Was ist der Grund für das Ende der Seiten? Zu teure Serverkosten? Zu wenig Einnahmen? Zu große Kritik?


Google macht mal wieder Schlagzeilen. Alle Spatzen zwitschern es von den Dächern: Google sagt Windows ade.

Als im Januar diesen jahres Hacker bei Google durch eine Sicherheitslücke im Internet Explorer eindrangen gab das Google den idealen Grund um die Umstellung der Firmen-PCs von Windows auf ein anderes Betriebssystem voranzutreiben. Bis dahin konnten sich neue Mitarbeiter frei das System ihrer Wahl aussuchen, wobei Windows scheinbar auf Desktops sowieso kaum anzutreffen war. Nun will Google auch den Installationen auf Laptops zu Leibe rücken. bestehende Installationen müssen vom jeweiligen Vorgesetzten genehmigt werden, für Neuinstallationen benötigt man gar den Segen des Leiters der Informationstechnik.

So wenig überraschend es ist, dass Google seine Mitarbeiter lieber mit den hauseigenen ChromeOS arbeiten sieht als mit einem Konkurrenzprodukt umso mehr hat es mich verblüfft, dass überhaupt noch Windows-Installationen bei Google zu finden sein sollen. Als einzige Alternative zu Linux dürfen auch Mac OS Systeme auf dem Arbeitsplatz laufen, was scheinbar von den Umsteigern bevorzugt gewählt wird. Ob Google neben ChromeOS auch andere Linux-Distributionen erlaubt konnte ich bis jetzt aus den vielen Berichten nicht herauslesen.

Quellen: Heise, orf.at

Creative Commons License
This work by Stefan Ohri is licensed under a Creative Commons Attribution-ShareAlike 3.0 Austria License

=-=-=-=-=
Powered by Blogilo


Einsortiert unter:Computer, GNU/Linux, Google, Microsoft, Ubuntuusers

In den letzten Tagen habe ich verschieden DVD-Ripping-Tools getestet. Die einfache Aufgabe: DVD mit Filmen aber auch Serien bequem, einfach und schnell mit möglichst hoher Qualität auf die Festplatte befördern.

Die Kandidaten: dvd::rip, AcidRip, ogmrip, HandBrake, k9copy und LemonRip.

dvd::rip
dvd::rip eignet sich sehr gut zum Rippen und Kodieren von DVDs und erinnert mich am ehesten an GordianKnot. Es gibt sehr viele Einstellungsmöglichkeiten, die eigentlich jedem Wunsch gerecht werden. Beim Versuch einen größeren Film in drei Teile zu splitten hatte ich aber das Problem, dass Video und Ton asynchron waren (aus welchem Grund auch immer). Zudem fand ich gerade das Rippen von mehreren Titeln recht unkomfortabel. Sehr positiv: Es ist möglich, das Rippen eines Films auf mehrere Rechner zu verteilen – sogenannte Cluster. Auch finde ich das Programm erstaunlich übersichtlich dafür, dass es dem Nutzer so viele Möglichkeiten bietet.

ogmrip
ogmrip ist in erster Linie ein DVD-Ripper, der Das Rippen einfach machen soll – was m.E. auch gut gelingt. Sehr schön ist die Möglichkeit, verschiedene Profile anzulegen: So kann man mit einem Klick auswählen, ob man den Film für seine Telefon, für den PC oder für seinen DVD-Player kodieren möchte. Dummerweise war ich just in diesem Fall in der unglücklichen Situation, einen Film in Graustufen kodieren zu wollen – keine Ahnung, ob das einen großen Unterschied macht – mit ogmrip war der entsprechende Schalter nicht zugänglich (getestet mit XViD). Viel schlimmer war allerdings die Tatsache, dass ogmrip beim Rippen mehrfach abgestürzt ist und “Segmentation Faults” ausgespuckt hat. Weiterhin hat sich das Programm beim Zuschneiden mehrfach aufgehängt. Positiv dahingegen fand ich die Möglichkeit, mehrere Titel einer DVD in den Queue zu schieben und dann in einem Rutsch abarbeiten zu lassen.

AcidRip
AcidRip ist ein weiteres Frontend für den mencoder. Im Gegensatz zu ogmrip wird hier der mencoder aber nicht so sehr vor dem Benutzer versteckt: Einige wichtige Optionen (wie Audio, Untertitel, Codec, Bitrate, Crop und Scale) sind über Schalter zugänglich, weitergehende Funktionen müssen als mencoder-Parameter in Textboxen eingetragen werden. AcridRip ist insgesamt leicht zu bedienen, bietet aber nur die Möglichkeit, jeweils eine Audio- und Untertitelspur zu setzen.
AcidRip wird häufig als Ripper für Einsteiger bezeichnet, ich sehe darin aber eher ein mencoder-Frontend, das den mencoder nicht so weit “wegabstrahiert”, wie etwa ogmrip. Für ein Einsteigerprogramm wirkt AcidRip dann auch reichlich unübersichtlich und müsste anders strukturiert sein. Insgesamt aber eigentlich ein schönes Tool für Fortgeschrittene die eine GUI nutzen möchten, ohne sich von dieser in der Wahlfreiheit beschneiden zu lassen.

k9copy
Bei k9copy handelt es sich – der Name deutet es an – um ein KDE-Programm. Da ich für Gnome aber lediglich DVD95 als Alternative kenne und mit dieser in der Vergangenheit nicht sonderlich zufrieden war, habe ich mir stattdessen mal k9copy näher angesehen. k9copy (und DVD95) sind in erster Linie dazu da, große DVDs (DVD9) so zu verkleinern, dass sie auf einen handelsüblichen DVD Rohling passen (DVD5). Um das zu erreichen werden die Filme umkodiert, es lassen sich aber auch Tonspuren und Untertitelspuren streichen, weiterhin werden die Menüs etwas zusammengestaucht. Vorteil dieser Methode ist der Umstand, dass man ein komplettes Backup seiner DVD hat, ohne auf besondere Features (wie Kommentare des Regisseurs) verzichten zu müssen. Auch findet ja mancheiner Gefallen an aufwändig gestalteten Menüs und möchte diese nicht missen. Der Nachteil liegt auf der Hand: Durch das Umkodieren auf DVD5 nimmt die Qualität des Materials deutlich ab. Das Ausmaß der Qualitätseinbuße hängt aber in erster Linie davon ab, auf wie viele Tonspuren man verzichten kann und wie groß das Ausgangsmaterial ist. Nicht jede DVD9 ist prall gefüllt und eine sechs GB große DVD lässt sich durchaus ohne große Einbußen zusammenstauchen.

Sowohl DVD95 als auch k9copy bieten die Möglichkeit, die DVD nicht zu verkleinern, sondern zu rippen (weswegen die beiden Programme hier überhaupt Erwähnung finden). Während diese Möglichkeit bei DVD95 aber sehr rudimentär ist und sich kaum beeinflussen lässt, bietet k9copy ein breites Spektrum verschiedener Einstellungen. Es lassen sich viele verschiedene Codecs definieren, wobei jeweils die Parameter für ffmpeg oder mencoder von Hand eingegeben werden müssen. Es gibt allerdings auch Codec-Vorgaben, so dass die meisten Benutzer vom händischen Einstellen verschont bleiben. Zum Kodieren muss der Benutzer dann lediglich einen der Codecs auswählen und noch einige Details wie Dateigröße oder Bitrate auswählen und kann entscheiden, ob es zwei Durchläufe geben soll oder nicht. Auch das Cropping kann man sich dabei abnehmen lassen.

Hier fiel mir allerdings sehr negativ auf, dass man diese Einstellungen (Dateigröße, Video-Bitrate, Audio-Bitrate, Cropping) für jeden einzelnen Titel auf einer DVD wiederholen muss; ich habe keinen Schalter gefunden, mit dem sich diese Einstellung auf alle zu rippenden Titel anwenden ließ. Im Regelfall möchte man vermutlich nur einen einzigen Titel (etwa den Hauptfilm) auf die Festplatte bringen und wird sich daran nicht stören. Sobald man aber 6 Folgen einer Serie kopieren möchte, wird das schon sehr mühselig. So ist k9copy für KDE-Film-Liebhaber eine gute Wahl, Gnome-Serien-Fans werden sich aber oft darüber ärgern.

Lemonrip
Lemonrip ist ein beeindruckendes kleines Perl-Programm: Gerade einmal 1750 Zeilen wiegt es und kommt dafür mit einer praktischen GUI daher. Auch Lemonrip setzt auf mencoder auf und vereinfacht das Rippen von DVDs deutlich. Leider geht das in diesem Beispiel sehr zu Lasten der Konfigurierbarkeit: So konnte ich bei meinem Test lediglich zwischen 5 Profilen wählen, etwa “XVID 700MB” und “XVID 1100MB”. Weitere Einstellungen (Graustufen, Audio-Format und Audio-Bitrate, Anzahl der Durchläufe u.v.m.) ließen sich nicht über die GUI vornehmen. Zwar kann man weitere Profile direkt im Quellcode ergänzen und anscheinend auch in bestimmten Dateien eintragen – allerdings nur als komplette mencoder-Befehlszeile. Für Anfänger ist diese Möglichkeit also denkbar ungünstig. Auch gab es keine Möglichkeit, eine ISO-Datei oder DVD-Struktur auf der Festplatte als Quelle anzugeben. Angesichts der Tatsache, dass mencoder sowohl ISO-Dateien als auch DVD-Strukturen wie gewöhnliche DVDs einlesen kann, also eigentlich eine unnötige Beschränkung. Schließlich könnte die GUI auch an der einen oder anderen Stelle noch optimiert werden: So kann man zwar für jeden Titel einer DVD ein anderes Profil wählen – der Dialog dazu lässt sich aber nur über die Werkzeugleiste aufrufen, obwohl das jeweilige Profil in einer Liste neben dem Titel eingetragen ist. Hier wäre eine DropDown-Box sicher intuitiver. Auch die Auswahl der Sprache und des Untertitels könnte auf diese Weise deutlich vereinfacht werden.

Insgesamt stören an Lemonrip viele Einschränkungen und “Nicklichkeiten”. Vielleicht werden zukünftige Versionen in dieser Hinsicht Abhilfe schaffen. Sehr gefallen hat mir dahingegen die übersichtliche Darstellung des DVD-Inhaltes: Alle Titel werden in einer Liste dargestellt und lassen sich mit einem Hacken zum Rippen anwählen. Damit wäre Lemonrip gerade auch zum Rippen von Serien ideal und hatte im “Test” nach meinen Dafürhalten die intuitivste GUI.

HandBrake
Bei HandBrake sollte man die größte Einschränkung vorwegnehmen: Mittlerweile ist das Programm fast ausschließlich auf H.264 ausgelegt. Zwar gibt es noch die Möglichkeit, mit FFmpeg ein nicht näher spezifiziertes MPEG-4 zu erstellen, das ist aber anscheinend eher zu Testzwecken gedacht.
Wenn man diese Prämisse aber akzeptieren kann, erledigt HandBrake seine Aufgabe bestens:  Man kann zwischen verschiedenen Presets wählen und jeder Zeit neue anlegen. Als Quelle akzeptiert HandBrake DVDs, DVD-Verzeichnisstrukturen und ISO-Dateien gleichermaßen. Die einzelnen Titel einer DVD können sehr leicht mit unterschiedlichen Einstellungen gerippt werden, wobei jeweils auch mehrere unterschiedliche Audio- und Untertitelspuren gewählt werden können.

Sehr gut gefallen hat mir auch die “Picture Settings”-Funktion: In einem speziellen Fenster kann man nicht nur die automatische Beschneidung kontrollieren und anpassen oder ggf. eine Größenveränderung einrichten: Man kann auch sehr einfach einen beliebigen Zeitabschnitt von einer beliebigen Stelle des Videos “probekodieren”. Dabei finden alle gemachten Einstellungen (also etwa Video-Bitrate, B-Frames, u.v.m.) Berücksichtigung. So erhält man frühzeitig einen Eindruck davon, wie sich die Einstellungen auf das Endresultat auswirken.

Zum Rippen von Filmen ist HandBrake also geradezu ideal. H.264 ist ohnehin eine bessere Wahl als das etwas in die Jahre gekommene XViD – allerdings benötigt es (auch beim Abspielen) mehr Ressourcen und wird von vielen DVD-Playern noch nicht unterstützt.

Fazit:
Auch wenn ich den ein oder anderen Ripper mehr kritisiert habe: Insgesamt machen die Programme ihren Job durchaus ordentlich. Wer häufig Filme mit dem selben Encoder und den selben Einstellungen rippen möchte, wird sich sicher auch nicht daran stören, dass er bei AcidRip und Lemonrip einige Optionen einmalig von Hand eintippen muss. Ogmrip ist dabei in mancher Hinsicht ein guter Kompromiss zwischen Konfigurierbarkeit und Einsteigerfreundlichkeit, auch wenn ich hier und da einen Schalter vermisse. dvd:rip und HandBrake sind aber m.E. die Programme, die einem auf Wunsch die vielen Einstellungen am besten abnehmen, sie aber nicht völlig verstecken und somit auch Perfektionisten gefallen dürften.

Bislang war es bei Ubuntu so üblich, das nach dem Release einer Ubuntu-Version nichts mehr an den Paketquellen geändert wurde. Lediglich essentielle Fehlerbehebungen oder Sicherheitsupdates wurden über die Update- bzw. Security-Quellen verteilt. Für die Mozilla-Produkte bedeutete dies, dass nur so genannte Minor-Updates wie bspw. ein Update von Firefox 3.0.x auf Firefox 3.0.x+1 in die Quellen eingespielt wurde. Ein größeres Update wie von Firefox 3.5 auf Firefox 3.6 wurde jedoch nie durchgeführt.

Canonical möchte dem Anwendern so eine stabile Umgebung – stabil bitte im Sinne von “Hier ändert sich nichts” – garantieren. Unternehmenskunden freuen sich über diese Stabilität, private Anwender dagegen, besonders Umsteiger von einem gewissen System aus Redmond, sind jedoch meist etwas verwirrt warum ihr heiß geliebter Firefox nicht automatisch aktualisiert wird.

Dies wird sich wohl in Zukunft zumindest in Bezug auf den Firefox-Browser ändern. Wie im Let’s test Ubuntu NOW!-Blog und der Ubuntu-Devel Mailingliste bekannt gegeben wurde, wird der aktuelle Firefox in die Update-Quellen aller noch unterstützen Ubuntu-Versionen eingespielt werden. Der Grund dafür liegt nicht daran, dass man nun Ubuntu zu einer Rolling-Release-Distribution machen möchte, sondern an der Tatsache dass Mozilla selber die Release-Schraube immer schneller dreht.

Mozilla will zukünftig Minor-Release im 4-6 Wochen Takt und Major-Releases im Rhythmus von 4-6 Monaten veröffentlichen, dabei soll automatisch der Support älterer Versionen mit Sicherheitsupdates eingestellt werden. Für Canonical würde das bspw. in Bezug auf Ubuntu heißen, dass nach wenigen Monaten sämtliche Firefüchse in sämtlichen Ubuntu-Versionen von Hand geflickt werden müssten. Diese Arbeit möchte man sich wohl ersparen.

Wer will kann sich an den Tests dafür beteiligen, Informationen finden sich in dem genannten Blog-Beitrag wie auch auf der Mailingliste. Man beginnt mit Ubuntu Hardy, die weiteren Ubuntu-Versionen werden später folgen.

Gnome startet nun nicht mehr im Schneckentempo
Vor dem Update auf Lucid startete mein System, dank einer SSD-HD und der so wieso verkürzten Bootzeit von Karmic bereits relativ schnell. Dies ist auch mit Lucid nicht anders. Was mich jedoch störte, war die extrem lange Ladezeit von Gnome. Sprich: Das System war in geschätzten 3-4 Sekunden gestartet, aber nach der Passworteingabe dauerte es noch 20-30 Sekunden bis wieder etwas, ausser dem Wallpaper, zu erkennen war. Um herauszufinden was hier nun falsch laufen könnte, habe ich testhalber Firefox, Evolution, Banshee usw. als Startprogramme angegeben. Komischerweise wurden diese Programme direkt geladen. Sie wurden etwa ab 2 Sekunden nach der Passworteingabe gestartet. Das Panel und Co. wurden jedoch weiterhin erst nach besagter Zeit angezeigt.

Ich begab mich also auf Internetrecherge. Da ich nichts passendes zu meinem Thema fand, wandte ich mich kurzerhand an die Community im Forum von Ubuntuusers.de. In kürzester Zeit wurde meine Frage beantwortet. In diesem Thread wurde genau dasselbe Problem besprochen. Es wird durch ein nicht vorhandenes Floppydisk verursacht.

Diskettenlaufwerk deaktivieren

Als erstes sollte man seine BIOS-Einstellungen überprüfen. Wie man ins BIOS kommt sieht man beim Einschalten des Computers. Anschliessend muss man dort das Diskettenlaufwerk deaktivieren. Als nächstes geht man in die fstab.

sudo gedit /etc/fstab

Dort kommentieren wir die Zeile:

/dev/fd0

aus (einfach ein # vor die Zeile setzen). Beim nächsten Neustart sollte Gnome nun wieder in gewohnter Geschwindigkeit geladen werden.

Logischerweise funktioniert dieser Tipp nur mit einem System, in welchem "fälschlicherweise" ein Diskettenlaufwerk eingebunden wird/wurde.

Per Zufall bin ich auf apticron gestossen. apticron ist ein kleines Skript, das vorwiegend auf Servern zum Einsatz kommt und dort einmal am Tag prüft, ob neue Updates vorliegen, falls es welche gibt, wird eine Mail an eine konfigurierte Mailadresse versendet.

Ein unglaublich einfaches Werkzeug, was sehr viel Arbeit sparen kann.

Im ubuntuusers.de-Wiki findet sich eine gute Seite dazu.

Mit unattended-upgrades kann man auch automatische Upgrade konfigurieren oder auch nur Security-Updates automatisch durchführen lassen. Ich fühle mich auf Produktionssystemen aber wohler, wenn ich notfalls eingreifen kann, falls etwas passiert.

Mit der Veröffentlichung von 2.6.35-rc1 am Sonntag Nacht hat Torvalds das aktuelle Merge Window geschlossen. Er äußerte, dass noch nicht alle Anfragen, Änderungen in den Kernel zu übernehmen, bearbeitet seien, bat jedoch darum, dass nun keine neuen mehr gestellt würden.

Er nannte eine Zahl von etwa 1000 Entwicklern, die bislang Änderungen für den kommenden Kernel beigesteuert hatten, mit etwa 8500 Commits, und äußerte sich damit zufrieden.

Ein neues Dateisystem wird der Kernel diesmal wohl nicht bieten können. Dafür wurde mit „Receive Packet Steering“ (RPS) und „Receive Flow Steering“ (RFS) zwei Methoden zur Verbesserung der Behandlung von Netzwerkverkehr unter hoher Auslastung des Systems eingebracht. Während ersteres die zu bearbeitenden Netzwerkpakete auf mehrere Prozessoren verteilt, sorgt letzteres dafür, dass Pakete höherer Protokolle vom gleichen Prozessor behandelt werden wie die zugehörige Anwendung.

Natürlich war der allergrößte Teil der Änderungen einmal wieder im Bereich der Treiber zu finden. So wurde zum Beispiel ein Problem mit der Audio-Ausgabe unter ALSA beim Thinkpad Edge 13 mit eingesteckten Kopfhörern beseitigt und der Treiber für Samsungs Mobil-Prozessor s3c6400, der auch in Apples iPhone steckt, wurde um die Unterstützung für SPI, einen seriellen Datenbus, erweitert.

Quelle: Linux Kernel Mailing List


Kernel-Quellen:

 

31. Mai 2010

Vor längerer Zeit suchte ich mir einen neuen Mail-Client. Mein Thunderbird 2.XY (ich kann mich wirklich nicht mehr an den genauen Release in Xubuntu 9.10 erinnern) hat desöfteren zicken gemacht. Meine drei E-Mail-Konten werden allesamt von Thunderbird sortiert. Da dies IMAP-Postfächer sind, überträgt sich die Verschiebung von Mails auch auf meine anderen 3 Mail-Clients. Unter anderem Mail von Apple am Macbook, iPhone Mail und Xubuntu Thunderbird zuhause. So muss ich nur einen Regelsatz pflegen und hab trotzdem überall geordnete Mails.


evo-logo3

Nun der Single-Point-of-Failure (oder auch Arbeits-PC) der 24 Std in Betrieb ist und Mails sortiert, hängt sich ständig auf, stürzt ab oder ignoriert willkürlich Filter. Gerade als ich 4 Wochen nicht in der Arbeit und teils auch in den USA war, war es sehr ungünstig nach 3 Tagen festzustellen das im Posteingang 600 unsortierte Mails liegen. Ein Umstieg stand an. Habe mich für Evolution entschieden und fand das auch im ersten Moment sehr sehr schön gemacht. Es gibt nur einen riesen Nachteil. Es ist nicht möglich, dass eintreffende Mails automatisch sortiert werden.

Auch der Lösungsansatz von http://ubuntuforums.org/showthread.php?t=99930 konnte mir nicht helfen.

Jedesmal STRG + Y zu drücken kommt absolut nicht in Frage. Das funktioniert auch nicht, da ich nicht rund um die Uhr in der Arbeit bin. Später habe ich versucht dieses Event irgendwie über CronJob aus dem Source-Code starten zu lassen. Ohne Erfolg.

Ich muss wirklich sagen, schöne Arbeit Evolution. Würde dieses tolle Mailprogramm auch sehr gerne weiterhin benutzen. Aber unter diesen Umständen auf keinen Fall. Schade, dass wirklich schöne Software immer an irgendwelchen Kleinigkeiten scheitern. Was keinen Vorwurf gegenüber der Software selbst darstellt. Eher ein kleines Makel was für einzelne User wichtig wäre. So bin ich nun zu Thunderbird 3.0 migriert und liege Nachts wach, aus Angst morgens von Mails überrollt zu werden ;)

Ich habe in den letzten Tagen und Wochen wieder intensiv an “meiner Live-Distribution” LessLinux gearbeitet. Wahrscheinlich kennen die meisten von Euch LessLinux als die “ComputerBild Notfall-CD 2.0″, doch das System soll mehr können als ein komfortables Rettungswerkzeug für Havarierte Windows-Installationen zu sein. Herausgekommen sind unter anderem:

  • Systemstart per Netzwerk: Es ist nun kein lokaler Datenträger mehr nötig. Stattdessen kann beim Systemstart ein ISO-Image per WGET heruntergeladen werden. Das landet im Arbeitsspeicher und wird Loopback gemountet. NFS-Boot folgt, mein Testbuild hier zu Hause macht es schon… Weiter im LessLinux-Blog

  • Zugriff per VNC: Per Cheatcode kann nun angegeben werden, statt einer lokalen Grafikkarte einen VNC-Server anzusteuern. Das klappt offen fürs ganze Netz oder auf localhost für unsichere Umgebungen Weiter im LessLinux-Blog

  • LessLinux selbst bauen: Buildscripte, Anleitungen und ein VMware-Image in dem der Build garantiert durchläuft, sind Online Teil 1 und Teil 2 im LessLinux-Blog

In diesem Jahr wird zum zweiten Mal die openSUSE Conference in Nürnberg stattfinden. Der genaue Zeitraum wird der 20.-23. Oktober 2010 sein. Für diese Konferenz ist man jetzt auf der Suche nach Beiträgen. Das Ganze findet unter dem Motto “Collaboration Across Borders” statt. Damit will man vor allem Upstream-Projekte ansprechen an der Konferenz teilzunehmen um die zukünftige gemeinsame Arbeit mit dem openSUSE Projekt besser abstimmen zu können, dabei will openSUSE aber auch interessantes an Neuerungen aus diesen Projekten wissen. Natürlich sind auch gerne Gäste und Beitragende von anderen Distributionen gesehen. Die Schwerpunkte der Einreichungen sollen: Technology and Upstream Development, Education and Science, Business und aus den Bereichen User & Home sein. Zu den entsprechenden Vorträgen wird es natürlich auch Hacksessions und BOF-Sessions geben. Die Deadline für die Einreichungen für Papers aber auch Ideen für Hack und andere -sessions wird der 31. Juli sein. Mehr zum CfP gibt es hier zu erfahren.

Ich für meinen Teil, werde mit hoher Wahrscheinlichkeit auch in diesem Jahr an der openSUSE Conference teilnehmen. Sicher werde ich auch wieder einen entsprechenden Beitrag für RadioTux produzieren. Aber erst einmal gilt es für das Program Committee ein entsprechendes Programm zusammen zu stellen.

Der LinuxTag in Berlin rückt unaufhaltsam näher, nur noch etwas über eine Woche dann steigt Europas Open Source Party Nummer eins. Einigen wird es zwar nicht schmecken, dass Microschuft als Sponsor auftritt aber ein wenig wandeln ja auch die sich. Dafür soll es aber dieses Jahr mehr Aussteller geben. Ich werde ja die ganze Woche mit RadioTux vor Ort sein. Wir berichten wieder Live vom Geschehen (Programm hier) und wer jetzt auch den LinuxTag besuchen will, hat nochmal die Chance RadioTux hat nochmals Freikarten zu vergeben.

Als ich mit Ubuntu anfing, bin ich relativ schnell auf ubuntuusers.de gestoßen. Im Forum bekommt man immer schnell Hilfe, das Ikhaya-Team veröffentlicht tolle Artikel und im Planeten kann man genug lesen über das “drumherum”. Doch genau dieser wird mir mittlerweile zu weitläufig.

Wenn ich mich recht entsinne waren am Anfang die Beiträge der Blogger nur auf Ubuntu bezogen, teilweise auf Linux allgemein. Mittlerweile sehe ich immer mehr Beiträge welche rein gar nix mit Linux/Ubuntu zu tun haben sondern ein komplett anderes Thema ansprechen. Mir ist klar, dass ein Blogger immer möglichst viele Besucher auf seinen Blog bekommen will, aber wenn das Thema nix mit Linux/Ubuntu zu tun hat, sollte dies auch nicht im Planeten erscheinen.

Nur mal so als Denkanstoß: solltet ihr eure Beiträge abseits von Linux/Ubuntu trotzdem an einen Planeten geben wollen, sei euch hiermit der Planetenblogger empfohlen!

30. Mai 2010

VirtualBox läuft üblicherweise problemlos unter Ubuntu. Ich verwende VirtualBox mit Ubuntu als Host- und Windows XP als Gast-System. Denn hin und wieder komme ich an einem kurzen Windows-Ausflug leider nicht vorbei. Mit VirtualBox 3.2 hatte ich trotz installierter Guest Additions keine Möglichkeit die Auflösung für das Gast-System zu erhöhen. Mit 800×600 Pixeln lässt sich aber leider schlecht arbeiten. Nach einigem Suchen habe ich aber die passende Problemlösung gefunden. Mit VBoxManage setextradata global GUI/MaxGuestResolution 1024,786 lässt sich die maximale Auflösung für das Gast-System unter VirtualBox festlegen.

Vielen Dank an triggeredupdates für den Tipp!

An dieser Stelle gibt es eine kleine Anleitung, wie man am Schnellsten eine eigene Wunsch-Ubuntu-CD erstellt. Diese Anleitung stellt eine Quasi-Übersetzung der Artikels LiveCDCustomization dar. Ich habe sie nur an ein paar Stellen angepasst und gestrafft bzw. mich auf das Wesentliche beschränkt.

Bitte lest die Anleitung wenigstens einmal komplett durch, bevor ihr euch an das Anpassen einer CD macht. Da man sehr viele Aufgaben als Superuser durchführen muss, können Tippfehler fatal enden.

Grundlegende Vorbereitungen

Als Erstes muss man die ISO-Datei der gewünschten Variante herunterladen.

Diese Anleitung funktioniert nur mit der Live-CD und nicht mit der Alternate-CD

Danach muss man zwei Pakete installieren, welche für das Erstellen der CD zwingend notwendig sind :

sudo apt-get install squashfs-tools genisoimage

“genisoimage” sollte im Normalfall schon installiert sein. Zusätzlich benötigt man 3-5GB freien Festplattenplatz und mindestens 512MB RAM.

Jetzt geht es ans Eingemachte. Zuerst muss man ein Arbeitsverzeichnis erstellen :

mkdir -p ~/live-cd/extract-cd

Ich habe in meinem Beispiel das Homeverzeichnis (“~”) als Grundlage für das Arbeitsverzeichnis gewählt. Wer nicht genügend Platz in diesem Verzeichnis hat und/oder ein anderes Verzeichnis benutzen will, muss den Pfad entsprechend anpassen.

Als Nächstes wechselt man ins angelegte Arbeitsverzeichnis :

cd live-cd

Danach muss man die Live-CD in ein Verzeichnis mounten (Den Dateinamen sollte man entsprechend anpassen) :

sudo mount -o loop Pfad_zur_ISO_Datei/ubuntu-10.04-desktop-i386.iso /mnt

Als Nächstes wird der Inhalt der eingebundenen ISO-Datei per “rsync” in das Verzeichnis “extract-cd” gespiegelt. Dabei wird die Datei “filesystem.squashfs” ausgelassen, da diese am Ende eh neu generiert wird. Zusätzlich werden dann noch alle Dateien des neuen Verzeichnisses als Beschreibbar markiert, da es später ansonsten Probleme gibt :

rsync --exclude=/casper/* -a /mnt/ extract-cd
chmod -R +w extract-cd

Von jetzt an muss jeder Befehl als “root” bzw. Superuser ausgeführt werden. Man sollte dementsprechend aufpassen auf welches Verzeichnis man zugreift bzw. aus welchem Verzeichnis man eine Datei löscht.

Jetzt wird das eigentliche Live-CD-Dateisystem entpackt (Das dauert einige Minuten) :

sudo unsquashfs /mnt/casper/filesystem.squashfs
sudo mv squashfs-root edit
(Ist nicht unbedingt notwendig, verkürzt aber die Tipparbeit bei den restlichen Anpassungen)

Alle Dateien der Live-CD sind jetzt auf der Festplatte.

“chroot”-Umgebung vorbereiten

Die folgenden Befehle dienen dazu eine funktionierende “chroot”-Umgebung einzurichten. Sind diese Vorbereitungen abgeschlossen, kann man mit dem Live-CD-System wie mit einer normalen Installation arbeiten.

Zuerst wird die Datei für die Nameserver-Konfiguration vom Hauptsystem in das Live-CD-System kopiert :

sudo cp /etc/resolv.conf edit/etc/

Dies ermöglicht die DNS-Namensauflösung innerhalb der späteren “chroot”-Umgebung. Je nach System, muss man noch zusätzlich die “hosts”-Datei kopieren :

sudo cp /etc/hosts edit/etc/

Jetzt wird noch das dev-Verzeichnis in die “chroot”-Umgebung eingebunden :

sudo mount --bind /dev/ edit/dev

Die “chroot”-Umgebung ist jetzt fast vorbereitet. Alle weiteren, noch notwendigen Konfigurationschritte werden ab jetzt in dieser Umgebung durchgeführt.

Zuerst wechselt man in die “chroot”-Umgebung :

sudo chroot edit

Falls man nicht von vorneherein als Superuser unterwegs war (was auf keinen Fall zu empfehlen ist!), erkennt man jetzt die “chroot”-Umgebung an einem vorangestellten “root” in der Pfadangabe der Konsole.

Jetzt kommen die restlichen Vorbereitung dran. Diese werden, da man jetzt ein Superuser ist, ohne vorangestelltes “sudo” ausgeführt :

mount -t proc none /proc
mount -t sysfs none /sys
mount -t devpts none /dev/pts
export HOME=/root
export LC_ALL=C
alias ls="ls --color -F"

Die “chroot”-Umgebung ist jetzt im Prinzip fertiggestellt. Es müssen jetzt nur noch drei kleine Schritte durchgeführt werden, damit es keine Probleme bei der Installation bzw. Deinstallation von Paketen gibt :

dbus-uuidgen > /var/lib/dbus/machine-id
dpkg-divert --local --rename --add /sbin/initctl
ln -s /bin/true /sbin/initctl

Die letzten drei Befehle sorgen dafür, das die “chroot”-Umgebung keine Möglichkeit hat laufende Dienste zu verändern bzw. auf den System-DBUS-Dienst zuzugreifen.

Ab jetzt kann man das System nach Belieben verändern. In meinen Fall führe ich zuerst per “aptitude” ein Update aller Pakete durch, binde meine PPAs ein und entferne ein paar Pakete (z.B. “example-content”) um die Größe des (später) komprimierten Dateisystem unter ca. 670MB zu halten. Wer will, kann auch einfach Synaptic starten (Befehl “synaptic”) und alle Paketinstallationen, Deinstallationen und Updates grafisch durchführen.

Weitere Anpassungen (z.B. Ändern des Hintergrundbildes, Abschalten des Autologins, usw.) sind nicht Teil dieser Anleitung. Wer mehr zu diesen Änderungen erfahren möchte, sollte sich den am Anfang genannten englischen Artikel durchlesen.

Beim Aktualisieren des Systems gibt zwei Dinge zu beachten :

  1. Man sollte unbedingt alle alten Kernelversionen deinstallieren und nur die neueste Version installiert lassen. Ansonsten bekommt man später die ISO-Datei niemals kleiner als 700MB ohne massiv andere Pakete zu deinstallieren.
  2. Wenn ein Grub2-Update angeboten wird, sollte dessen weitere Konfiguration ablehnen.

Hat man alle Veränderungen durchgeführt, muss man alle vorher getätigten Eingriffe in die “chroot”-Umgebung wieder rückgängig machen bzw. das Dateisystem aufräumen (Paketdateien löschen, temporäre Dateien entfernen, usw.) :

Vor dem Aufräumen und dem Verlassen der “chroot”-Umgebung sollte man sich nochmals vergewissern, dass im Verzeichnis “/boot” nur noch ein Kernel vorkommt. Falls nicht, sollte man dringend die alten Kernelversionen deinstallieren und erst dann die weiteren Schritte durchführen.

aptitude clean
rm /sbin/initctl
dpkg-divert --rename --remove /sbin/initctl
umount /proc
umount /sys
umount /dev/pts

Jetzt kann man die “chroot-Umgebung” wieder verlassen und die restlichen Aufräumarbeiten erledigen :

exit
sudo rm -rf edit/tmp/* edit/root/.bash_history edit/etc/resolv.conf edit/etc/hosts edit/var/lib/dbus/machine-id
sudo umount edit/dev

Falls es beim “unmounten” eines Verzeichnisses (passiert häufiger beim “/dev”-Verzeichnis) Probleme gibt, sollte man den Befehl “umount” mit den Parametern "-lf" (“lazy” und “force”) aufrufen.
Denkt bitte daran, ein “exit”-Befehl verlässt die “chroot”-Umgebung. Um gravierende Fehler zu vermeiden sollte man sich immer merken, das man innerhalb der “chroot”-Umgebung kein “sudo” benötigt, außerhalb (also auf dem normalen System) jedoch immer. Auf keinen Fall sollte man direkt (z.B. per “sudo -s”) in den Superuser-Modus wechseln, da man ansonsten sehr leicht übersehen kann ob man sich überhaupt noch in der “chroot”-Umgebung befindet.

Neuere Kernelversion in die Live-CD einbauen

Damit die Live-CD auch mit einer neueren Kernelversion starten kann, muss man diesen vom eigentlichen Live-CD-Dateisystem ins das Verzeichnis “casper” des Live-CD-Dateisystems kopieren und die Initial-RAM-Disk mit LZMA rekomprimieren :

zcat edit/boot/initrd.img-2.6.32-24-generic | lzma -c -9 > extract-cd/casper/initrd.lz
cp edit/boot/vmlinuz-2.6.32-24-generic extract-cd/casper/vmlinuz

Wenn man die Original-CD benutzt, muss man die Kernel-Datei direkt von der CD holen, da im Verzeichnis “edit/boot” die Datei “vmlinuz” nicht vorkommt :
cp /mnt/casper/vmlinuz extract-cd/casper

Analog verfährt man, wenn man z.B. einen der Mainline-Kernel oder einen Eigenbau-Kernel in die Live-CD einbinden möchte. Man muss nur die Versionsnummern anpassen, der Rest ist identisch.

SquashFS-Dateisystem erstellen

Nachdem diese Schritte ausgeführt wurden, geht es an das Erstellen des Live-CD-Dateisystems. Der komplette Verzeichnisbaum unter “edit” wird dabei in eine einzelne Datei gepackt (Die Kerneldateien werden dabei ausgelassen) :

sudo mksquashfs edit extract-cd/casper/filesystem.squashfs -wildcards -e boot/vmlinuz-* boot/initrd.img-*

Dieser Vorgang kann, je nach Rechner, bis zu einer halben Stunde dauern. Geht am Besten einen Kaffee trinken.

Nachdem dieser Vorgang abgeschlossen ist, sollte man zuerst die Gesamtgröße des Ordners “extract-cd” überprüfen. Dieser sollte immer unter 700MB bzw. 734003200 Bytes liegen. Ansonsten kann es nämlich zu Problemen beim Brennen der CD kommen. Wer vorhat die ISO-Datei auf eine DVD zu brennen oder diese nur per USB-Stick zu nutzen, braucht auf die Größenbeschränkung natürlich nicht zu achten.

Liegt die Größe über den genannten 700MB, muss man nochmals eine “chroot”-Umgebung erstellen (Einfach die Anleitung ab “chroot”-Umgebung vorbereiten nochmals abarbeiten) und zusätzliche Programme aus der Installation entfernen. Leider gibt es keine Möglichkeit die Größe des erstellten SquashFS-Dateisystems im Voraus zu bestimmen, da die Größe des erstellten SquashFS-Dateisystems davon abhängt, wie stark sich der Inhalt des Live-CD-Dateisystems komprimieren lässt.

Man sollte, nachdem das Erstellen das SquashFS-Datei abgeschlossen ist, diese nochmals per “unsquashfs” entpacken. Mir ist es in den letzten Tagen schon zweimal passiert, das die Datei nicht korrekt komprimiert wurde und einige Dateien darin defekt waren. Da ich mir nicht 100% sicher bin ob es daran lag, dass ich die Anpassungen unter VirtualBox durchgeführt habe, habe ich mir einfach angewöhnt die SquashFS-Datei durch das nochmalige Entpacken auf ihre Korrektheit zu überprüfen (Leider scheint es kein “fsck.squashfs” zu geben). Sollte alles korrekt sein, löscht man danach einfach das erstellte Verzeichnis “squashfs-root” wieder.

ISO-Datei erstellen

Hat man die Größe des Ordners unter 700MB gedrückt, kommen nun die letzten Schritte vor dem Erstellen der eigentlichen ISO-Datei :

sudo chroot edit dpkg-query -W --showformat='${Package} ${Version}\n' > extract-cd/casper/filesystem.manifest
cp extract-cd/casper/filesystem.manifest extract-cd/casper/filesystem.manifest-desktop
sed -i '/ubiquity/d' extract-cd/casper/filesystem.manifest-desktop
sed -i '/casper/d' extract-cd/casper/filesystem.manifest-desktop
sudo du -sx --block-size=1 edit | cut -f1 > extract-cd/casper/filesystem.size
sudo chmod a-x+rw extract-cd/casper/filesystem.squashfs

Die obigen Befehle legen einige Dateien an, welche der Ubuntu-Installer benötigt um den Inhalt des Live-CD-Dateisystems sauber in eine echte Installation überführen zu können. Der “chmod”-Befehl dient nur dazu das man als normaler Benutzer überhaupt auf die angelegte SquashFS-Datei zugreifen kann.

Als letztes ist das eigentliche Erstellen der ISO-Datei dran :

cd extract-cd
genisoimage -D -r -V "Ubuntu 10.04" -cache-inodes -J -l -b isolinux/isolinux.bin -c isolinux/boot.cat -no-emul-boot -boot-load-size 4 -boot-info-table -o ../ubuntu-10.04-desktop-i386-custom.iso .

Die einzigen Parameter, welche man ändern sollte, sind der Name der CD (Parameter “-V”) und den Dateinamen der ISO-Datei.

Ist das Erstellen der ISO-Datei erfolgreich, ist man am Ende angekommen. Nun kann man die erstellte ISO-Datei in einen beliebigen Ordner verschieben und den Ordner “live-cd” von der Festplatte löschen. Bevor man dies tut, sollte man die erstellte ISO-Datei einem Testlauf unterziehen. Am Einfachsten geht das per USB-Stick oder, um keine CD-Rohlinge zu verschwenden, per wiederbeschreibbarer CD. Funktioniert die ISO-Datei ordnungsgemäß und wie gewünscht, kann man dann wirklich den Ordner “live-cd” löschen.

Am Ende muss man dann nur noch die ganz am Anfang gemountete ISO-Datei wieder aushängen :

Ist dieser Schritt abgeschlossen, kann man die eingebundene ISO-Datei wieder entfernen :

sudo umount /mnt

Edit 31.05.2010 :

  • Kleinere Änderungen eingefügt. Dank an dakira für die Hinweise.
  • Fehler korrigiert. Nochmals Dank an dakira für den Hinweis.

Edit 02.06.2010 (*seufz*) :

  • Fehlende Befehle zum Erstellen der Manifest-Dateien eingefügt. Diese Befehle werden direkt vor dem Erstellen der ISO-Datei ausgeführt.
  • Kopieren der Kerneldatei eingebaut. Ist beim Überarbeiten der Befehlsreihe verloren gegangen.
  • Fehlendes “sudo” vor mksquashfs eingefügt.
  • rsync-Befehl überarbeitet. Da am Ende der Inhalt des Verzeichnisses “casper” eh neu erstellt wird, braucht man daraus auch keine Dateien rauskopieren.
  • Datei -und Verzeichnisrechte angepasst damit “genisoimage” und andere Befehle auch ohne “sudo” funktionieren.
  • Rechtschreib -und Grammatikfehler korrigiert.

Edit 16.07.2010 :

  • Hinweis auf den “umount”-Fehler eingefügt. Dank an Lirex für den Tipp mit den Parametern.

Edit 18.08.2010 :

  • Dateinamen der initrd-Datei angepasst (Anpassung an Ubuntu 10.04.1).
  • Hinweis zu Kernel-Datei eingebaut und “umount”-Befehl ans Ende der Anleitung verschoben.