ubuntuusers.de

7. November 2008

Zockertown.de 7. November 2008 06:22

ping-tester

So, wie versprochen, ich versuche mal die Sache mit den Ping-Grafiken von ping.zockertown.de zu erklären: Als Beispiel nehme ich einen Test Webserver, den ich eigens zu dem Zweck aufgesetzt habe. Der Name der (Pseudo) Domain ist ping-tester.

Ping-tester ist der Asus G1 Laptop, hinter einem Router. Der Router hat eigens zu dem Zweck ein Forwarding von Port 80 auf dem Laptop, so das der Server vom Internet aus, also auch von ping.zockertown.de zu erreichen ist. Das besondere am verwendeten Webserver thttpd ist, das man seine Auslieferungsgeschwindigkeit drosseln kann. Leider ist der http_ping, um den es hier geht nicht in der Lage, Dateien zu laden, sondern nur - wie es sich auch für einen normalen Ping gehört - ein Tool um den Verbindungsauf- und abbau zu messen.

In der Legende der Grafiken sind die folgenden Werte abgebildet:

  • open connection (Gelb)
  • send request       (Braun)
  • receive response (Blau)
  • close connection  (Dunkelblau)
  • total                     (Rot)

Die horizontale Achse ist die Uhrzeit, die vertikale Achse ist die benötigte Zeit. Normalerweise in Millisekunden, bei besonders langsamen Sites sind es auch schonmal Sekunden.

Die Gelbe "open connection" Zeit, ist die Zeitspanne, bis eine Reaktion des Webservers eintrifft. Der Webserver liefert dann sein "Connect".

Das Braune "send request" ist die Zeit, die für das zustellen des Kommandos an den Webserver benötigt wird, normalerweise kaum messbar.

Das Blaue "receive response" ist die Zeitdauer, die bis zum eintreffen des letzten Bytes vergeht.

Das Dunkelblaue "close connection" ist die Zeitdauer, bis das Close des Webservers eintrifft.

Wo der Unterschied zwischen der Roten Total Time und der Blauen Zeit ist, habe ich nicht ergründen können. Evtl. habe ich die Punkte in der unteren Erklärung auch ein - zwei phasen versetzt, ich bin nicht in den Source Code von php eingestiegen, sondern verlasse mich auf die Beschreibung der Funktionen und meine Intuition. Da ist also noch Unsicherheit.

Was passiert im einzelnen, wenn der HTTP_Ping gestartet wird? Ich habe den Verkehr zwischen Ping.zockertown.de und meinem Laptop belauscht. Dazu habe ich wireshark benutzt. Dieses Schweizer Taschenmesser für Netzadmins habe ich viel zu wenig genutzt bis jetzt, es wurde mal wieder Zeit. Der Extrakt der 11 markierten Pakete ist im erweiterten Teil des Beitrages mit entsprechenden Erklärungen dazu, zu sehen.


"ping-tester" vollständig lesen

So nun hatte ich auch mal ein wenig Zeit mich mit verschiedenen Distributionen und deren Netbooktauglichkeit zu beschäftigen.

Installiert und jeweils 2 bis 3 Tage im Test hatte ich folgende Distributionen

  1. OpenSuSE 11
  2. Ubuntu 8.10 (alternate)
  3. Mandriva 2009 One
  4. FluxFlux

Es gab im Vorfeld schon auf diversen Seiten Berichte über die verschiedenen Distributionen und deren Netbooktauglichkeit. Als Testgerät habe ich ein Medion akoya E1210 Revision 2. Installationskriterium war für mich bei jeder Distri, dass ich kein externes optisches Laufwerk habe. Also muss eine Installation über USB Platte oder Stick verlaufen.

1. OpenSuSE

Die gulte alte Susi konnte sehr gut installiert werden, so wie sonst auch. Es fehlten jedoch native Unterstützung für den USB Webcam und die Ralink Wirelesskarte. Auch der Bluetoothdongle machte seine Zicken. Das System hat laut powertop, einem kleinen Tool von Intel, 12,8 Watt bei laufendem WLAN und und Firefox verbraten.

2. Ubuntu 8.10 (alternate)

Die Installation ging vom USB Stick recht flott, KDE4 wurde dann ganz frisch aus dem Netz nach gezogen. Gut bei Ubuntu war, dass der Kernel schon den Patch für den Broadcom Bluetoothdongle mitbringt. Das erspart ein wenig Fummelei. Die USB Webcam ging auch gleich, dank aktuellem UVC Treiber. Wlan verlangte auch hier etwas Handarbeit. Powetop unter KDE4 und Surfen verbrauchte hier 11,7 Watt.

3. Mandriva 2009 one

Bei Mandriva war direkt alles an Board, fast aktuelle KDE4 Version ( 4.1.2 ) und alle nötigen Treiber für WLAN und USB Webcam. Lediglich dem Bluetoothtreiber habe ich in den Systemeinstellungen ein explizietes Reset verpasst, damit er nach dem Start funktioniert. Falls allerdings nicht so gut war, war das Herstellen des Installationsmediums. Den Stick musste ich mit einem Tool von HP unter Windows formatieren und mit dem Labelnamen “MandrivaOne” versehen. Das normale Tool von XP hat es nicht hinbekommen das Label in der Partitionstabelle zu ändern. Das war nötig, da die One (CD) beim booten nach einem Wechseldatenträger mit diesem Namen sucht und das komprimierte LiveImage davon startet. Powetop hat hier 11,9 Watt verbrauch angezeigt.

4. FluxFlux

FluxFlux ist ein Remaster der PCLinuxOS Version. Auch hier waren alle Treiber mit an Board. Lediglich der Bluetoothdongle machte seine Zicken. KDE4 konnte ich auch installieren, jedoch nur eine 4.0 und da fehlten mir dann schon so einige kleine Funktionen. An das Übersetzen aus den Quellen hab ich mich nicht ran getraut, da ich denke, dass der kleine akoya dafür zu schwach auf der Brust ist. FluxFlux hatte aber von allen vier die schnellste Bootzeit, nach 45 Sekunden war das System vollständig gestartet. Powertop hatte hier den besten wert von 10,8 Watt.

Die Installationsmedien habe ich mir mit dem Tool unetbootin gemacht. Damit ist es möglich aus einem ISO Abbild einen startbaren Stick zu Zaubern. Auch für gängige Distributionen kann man damit eine Netzwerkinstallation machen, die Daten werden dann aus dem Internet nachgeladen.

Mein Fazit zum Thema Linux auf dem kleinen Lautet:

Wer es einfach haben will, der nimmt für den MSI Wind / Medion akoya und baugleiche die Mandriva. Dort ist alles mit dabei und recht aktuell. Die Performance ist in Ordnung und man kann vernünftig im Netz Surfen. Auch Videotelefonate mit Skype haben gut und flüssig funktioniert.

Bei der OpenSuSE und Ubuntu musste zu viel Hand angelegt werden. Neben den Treibern war es auch notwendig Schriftarten und deren Größe einzustellen, denn manchmal waren die 1024×600 einfach zu klein ;-)

Also dann viel Spaß

6. November 2008

Seit neustem gibt es ein neues eBook zum Thema Sicherheit in Ruby-on-Rails von der Security-Consultant Heiko Webers.

Für alle die nicht wissen, was Ruby-on-Rails ist, kann ich nur sagen: Unbedingt mal anschauen! Ist eine, entschuldigt die Ausdrucksweise. arschgeile Sprache:

Ruby on Rails, kurz Rails oder RoR, ist ein von David Heinemeier Hansson in der Programmiersprache Ruby geschriebenes und quelloffenes Web Application Framework. Es wurde im Juli 2004 zum ersten Mal der �?ffentlichkeit vorgestellt.

Es basiert auf den Prinzipien �??Don’t Repeat Yourself�?? (DRY) und �??Convention over Configuration�??, d.h. statt einer variablen Konfiguration sind Konventionen für die Namensgebung von Objekten einzuhalten, woraus deren Zusammenspiel sich automatisch ergibt. Diese Funktionen ermöglichen eine rasche Umsetzung von Anforderungen und damit agile Softwareentwicklung.

powered by wikipedia

Dieses englischsprachige, 48 seitige Handbuch behandelt wichtige Themen, wie Injenctions auf SQL, HTTP-Headers und Cross-Site-Scripting. Alles Themen, die einem (Web-)Programmierer geläufige Begriffe sein sollten. Es werden aber auch rubyspezifische Themen wie Mass-Assignment angesprochen, welche immer wieder ein grosses Sicherheitsrisiko in Ruby-on-Rails darstellen.Die Themen sind dabei gespickt mit Auszügen von Ruby-Code.

Das Werk ist im PDF-Format direkt von der Website downloadbar und nur zu empfehlen. Veröffentlicht wurde es unter der Attribution-Noncommercial-ShareAlike-Lizenz.

Und das beste: Ruby-on-Rails gibt es auch für Ubuntu. Hier findet man eine gute Anleitung, wie man dies zum laufen bringt.

�?ber den Vater von Ruby-on-Rails, einfach Ruby genannt, tauchten auch im uu.de-Forum und im Wiki schon diverse Beträge und Anleitungen auf.

Ruby ist in 8.10 schon in der Grundinstallation enthalten. Was aber noch installiert werden muss ist die interaktive Ruby-Konsole IRB:

sudo apt-get install irb

Nun kann man mit einem beliebigen Editor eine Datei hallowelt.rb erstellen. Zum Hello World ausgeben schreiben wir folgende Zeile rein:

puts ‘Hallo Welt’

Zum ausführen benutzt man folgenden Befehl:

ruby hallowelt.rb

�?ber die interaktive Konsole, welche es für Windows mit GUI und für Linux auf der Konsole gibt, kann man direkt interaktiv seine Ruby-Befehle ausführen.

Ich kann jedem nur empfehlen, diese Sprache mal anzuschauen. Ich selbst programmiere Ruby schon seit über einem Jahr. Mit Ruby-on-Rails habe ich erst vor kurzem angefagen.

Seit neustem gibt es ein neues eBook zum Thema Sicherheit in Ruby-on-Rails von der Security-Consultant Heiko Webers.Fr alle die nicht wissen, was Ruby-on-Rails ist, kann ich nur sagen: Unbedingt mal anschauen! Ist eine, entschuldigt die Ausdrucksweise. arschgeile Sprache:Ruby on Rails, kurz Rails oder RoR, ist ein von David Heinemeier Hansson in der Programmiersprache Ruby geschriebenes [...]

Postkarte der Chemnitzer Linux-Tage 2009Auch diese Jahr habe ich wieder ein Offline-Stöckchen erhalten. So richtig aus Papier! ;-) Und zwar eine Postkarte der Chemnitzer Linux-Tage 2009, die nächstes Jahr am 14. und 15. März in der TU Chemnitz stattfinden.
Vielen lieben Dank dafür. Auf der Karte war ein nette Aufforderung, doch mal einen Vortrag für das Einsteigerforum einzureichen. Und diesmal überlege ich es mir wirklich, da ich richtige Lust habe, die Chemnitzer Linux-Tage zu besuchen. Also mal sehen, vielleicht trifft man sich ja dann im März in Chemnitz!


Nachdem ich die neueste Ubuntu-Version 8.10 “Intrepid Ibex” seit der Beta-Phase getestet und einige Bugs reportet habe, auf die kein Ubuntu-Entwickler ein Auge geworfen zu haben scheint, war ich zunächst sehr entäuscht von der Richtung in die sich Ubuntu entwickelt: Überlange Pausen während dem Boot - unzählige Dienste, die gestartet werden, welche augenscheinlich keiner brauch.

Also habe ich mich mal wieder in der Welt der Distributionen umgesehen - Und bin bei Ubunu 8.10 “Intrepid Ibex” gelandet. Echt klasse, was die aus der Distribution gemacht haben: Geräte werden automatisch erkannt, ggf. prop. Treiber angeboten - Video Codecs werden bei Bedarf nachinstalliert - Ordnerfreigaben funktioniern ohne großes Konfigurieren meinerseits.

Und hier ein kleine Übersicht der Distributionen, die ich getestet habe:

Arch: Ich hatte ArchLinux vor geraumer Zeit schon mal installiert. Die wenigen Pakete, die schlechte Hardware-Erkennung und erheblicher Konfigurationsaufwand trieben mich damals wieder zu Ubuntu. So tat ich es mir wieder an. Die nicht erreichbare englischsprachige Webpräsenz und die veraltete deutsche Doku, ließen Arch kaum bis zum XServer in VirtualBox kommen. Danach verließ mich das Interesse.

Sabayon: Als ehemaliger Gentooianer erregte Sabayon, ein Gentoo-Abkömmling, zunächst meine Aufmerksamkeit. Leider ist die Dokumentation sehr schlecht. Artikel sind zwar vorhanden, jedoch ohne klare Inhaltsübersicht. Als Paketmanagement wird natürlich Portage empfohlen, was allerdings bei Sabayon ohne zusätzliche Konfiguration unbrauchbar ist. Konflikte entstehen schon beim portage-Update, dass man zunächst machen sollte. Der eigentlich sinnvolle Paketmanager für die Binärpakete, auf die Sabayon ja setzt, namens equo wird nur peripher erwähnt.
Die Installation verläuft rasch, jedoch sollte man die DVD verwenden, wenn man Gnome oder andere Umgebungen verwenden will. Die minimal-ISO beinhaltet nur XFCE und evtl KDE. Wählt man die Gnome-Umgebung und entfernt alle Haken bei den zusätzlichen Paketgruppen, wie Video oder Bürosoftware, erhält man ein ziemlich chaotisches System: Einen KNetworkManager in Gnome braucht nun wirklich keiner. So fiel diese Distribution aus der Liste raus und ich installierte …

Fedora: Die erste Distribution, die ich länger laufen hatte. Leider fehlt auch hier eine gute Dokumentation, unterscheidet es sich doch teilweise sehr von den Debian-basierten Distributionen. Die freie Ausrichtung lässt das Abspielen von Mediendateien teilweise schwierig werden, denn das neue RPMFusion Repository funktionierte leider für amd64 noch nicht. Alte Decoder-Versionen verhalfen dann aber zum Erfolg. Der Knackpunkt war, dass die Ordnerfreigaben weder über die Samba-Konfiguration noch über Nautilus funktionieren wollten.

Ubuntu: Meine Ausflüge in das Distributions-Meer haben mir einiges klarer werden lassen: Ein Betriebssystem sollte mich nicht mit unnötigen Pakete zubomben, aber mir sie dennoch anbieten, wenn es merkt ich könnte sie gebrauchen (Stichwort: Video-Decoder, Netzwerkfreigaben, Treiber), d.h. ich erhalte nach der Installation ein einfaches System, das ich meinen Bedürfnissen anpassen kann, und das die täglichen Aufgaben zuverlässig erfüllt ohne großen Konfigurationsaufwand nach der Installation. Natürlich erwarte und will ich nicht, dass mir jede denkbare Funktion zur Verfügung steht. Sollte ich aber die Desktopeffekte aktivieren, und mir fehlt der entsprechende Treiber, darf mir das System ruhig diesen Treiber anbieten, fehlt mir ein Plugin zum Abspielen eines Videos, soll mir das System einen passenden Codec anbieten…usw.

Ubuntu ist meines Erachtens die einzigste Distribution, die am nähesten an diesem Ziel dran ist - auch wenn es einige Macken hat.

So hat sich Ubuntu wieder Mal als die für mich beste Distribution herausgestellt. Die nächste Distribution die ich nun zu testen habe, wird sich Jaunty Jackalope nennen - go get it!

kde4.de 6. November 2008 14:22

KDE 4.1.3

Gestern, am 5. November 2008, wurde das monatliche Release von KDE veröffentlicht. Die Änderungen in dem aktuellen Release 4.1.3 (namens “Change”) bestehen hauptsächlich aus Bugfixes und Verbesserungen der Anwendungen. Hierbei werden vor allem Dolphin, KHTML, Okular und Kopete hervorgehoben.

Alle Änderungen und Bugfixes können im Changelog nachgelesen werden

Changelog KDE 4.1.2 zu 4.1.3

Have fun!

5. November 2008


Da ich demnächst mit meiner Examensarbeit anfangen und da vor allem statistische Auswertungen machen werde, benötigt man natürlich ein entsprechendes Programm. Der “Standard” ist scheinbar SPSS, eine kommerzielle Software mit entsprechendem Preis. Es läuft aber mittlerweile auf den verbreitesten Betriebssystemen (Windows, Mac OS X, Linux). Da ich das Geld für eine Linzenz nicht habe, bin ich mal auf die Suche nach einer Alternative gegangen und dabei auf PSPP gestoßen.

PSPP ist auch in den Paketquellen von Ubuntu, aber es empfiehlt sich die Version von GetDeb zu installieren, da sie verschiedene BugFixes enthält und außerdem einen Menüeintrag erstellt.

Danach kann man PSPP unter Anwendungen → Bildung → GNU PSPP starten. Die graphische Oberfläche ähnelt sehr der von SPSS, sodass keine große Umstellung nötig ist. Auch der Syntax der Dateien ist gleich und somit kompatibel zu SPSS. Da sich PSPP noch in der Entwicklung befindet sind die Auswertungsmöglichkeiten noch relativ begrenzt. Aber auswerten kann man es ja auch mit einer Testversion von SPSS ;)

Eine nervige Sache ist mit in PSPP aufgefallen: Mir ist es nicht gelungen eine Zelle zu löschen?! Weiterhin fragt PSPP vor dem Schließen nicht nach, ob man Änderungen an der Datei speichern möchte.

      

In den nächsten Tagen steht eine Reise an. Mit dabei sein wird der alte, robuste EeePC 701 mit Xubuntu 8.10 und einer SD-Karte für mein Heimatverzeichnis. In einigen Ländern muss man die Notebooks hochfahren und sich anmelden. Ab und an klickt der Immigration Officer dann durch das Dateisystem und schaut ob verdächtige Dateien vorliegen. Ich stelle hier ein Setup vor, bei dem das Heimatverzeichnis eines Nutzers verschlüsselt auf einer eigenen Partition liegt und beim Login dieses Nutzers eingebunden wird. Andere — evtl. per Auto-Login angemeldete — User hängen die verschlüsselte Partition nicht ein. Das beugt Problemen bei Verlusten des Netbooks vor und mit ein wenig Geschick lässt sich bei einer oberflächlichen Kontrolle die Existenz des verschlüsselten Heimatverzeichnisses verbergen.

Bei einer näheren Kontrolle wird jedoch die verschlüsselte Partition gefunden werden. Die Verschlüsselung selbst ist zwar so stark wie Ihr Login-Passwort, in der Praxis entscheidet über die Knackbarkeit der Verschlüsselung aber die Tiefe der “Kryptanalyse” des bereisten Staates: Wer Länder bereist, die Gartenschlauch-Kryptanalyse betreiben, sollte ein aufwendigeres Verschlüsselungsmodell mit geschachtelten Containern (TrueCrypt) verwenden, welches allerdings umständlicher zu nutzen ist.

Software-Installation und Vorbereitung der Partition

Zunächst muss etwas Software nachinstalliert werden:

sudo apt-get install cryptsetup libpam-mount

Rebooten Sie anschließend, um sicherzustellen, dass alle Bibliotheken richtig geladen werden.

Nun geht es um die Identifikation der Partition. Prüfen Sie mit fdisk -ul die Partitionierung des Ziellaufwerkes und stellen Sie sicher, dass es nicht gemoutet ist. Mein Ziellaufwerk war die im Kartenslot steckende SD-Karte, deren erste Partition ich mit fdisk mit einer normalen Linux-Partition versah. Hier die Partitionierung:

Platte /dev/sdb: 4029 MByte, 4029677568 Byte
233 Köpfe, 63 Sektoren/Spuren, 536 Zylinder, zusammen 7870464 Sektoren
Einheiten = Sektoren von 1 × 512 = 512 Bytes
Disk identifier: 0x00000000

   Gerät  boot.     Anfang        Ende     Blöcke   Id  System
/dev/sdb1              63     7867943     3933940+  83  Linux

Verschlüsseln der Zielpartition

Zunächst sollten die ersten Megabyte der Zielpartition mit Zufallszahlen überschrieben werden. In diesem Bereich sitzen später die LUKS-Schlüssel, die sich nicht von den umgebenden Daten abheben sollten:

sudo dd if=/dev/urandom of=/dev/sdb1 bs=1M count=2

Im nächsten Schritt wird die Verschlüsselung der Partition vorbereitet. Sie erhält noch kein Dateisystem. Geben Sie das Passwort an, welches später als Login-Passwort verwendet werden wird:

sudo cryptsetup luksFormat -c aes-cbc-essiv:sha256 -s 256 -y /dev/sdb1

Mit dem Subkommando luksOpen wird die verschlüsselte Partition als Gerätedatei verfügbar gemacht. Ich verwendete /dev/mapper/mattias, weil die verschlüsselte Partition mein Heimatverzeichnis aufnehmen soll.

sudo cryptsetup luksOpen /dev/sdb1 mattias

Eine verschlüsselte Partition sollte möglichst kein Muster erkennen lassen und keine Reste der früher enthaltenen unverschlüsselten Daten aufweisen. Recht pragmatisch ist es daher, Nullen als Eingabe zu nutzen, die verschlüsselt ein scheinbar zufälliges Muster ergeben. Wenn nicht große Teile des Ziellaufwerkes mit Daten belegt werden, erleichtert die Kenntnis der Plaintext-Daten (hier der Ansammlung von Nullen) das Knacken des Schlüssels. Um auf Nummer sicher zu gehen können Sie statt /dev/zero daher /dev/urandom als Eingabedatenstrom verwenden — allerdings dauert dann das “randomisieren” deutlich länger:

sudo dd if=/dev/zero of=/dev/mapper/mattias bs=8192

Nun endlich kann die verschlüsselte Partition mit einem Dateisystem versehen und gemountet werden:

sudo mkdir /tmp/home_mattias
sudo mkfs.ext3 /dev/mapper/mattias
sudo mount /dev/mapper/mattias /tmp/home_mattias

Kopieren der Daten

Damit sichergestellt ist, dass keine meiner Dateien geöffnet sind, habe ich zunächst ein Root-Passwort vergeben, rebootet und mich dann auf einer Konsole ([Strg]+[Alt]+[F2]) als Root angemeldet:

sudo passwd

Das Kopieren der Dateien erledigt nun rsync, fancy zum Zuschauen, “trailing slashes” nicht vergessen:

rsync -avHP /home/mattias/ /tmp/home_mattias/

Nun können die Überreste des unverschlüsselten Heimatverzeichnisses auf der Systempartition gelöscht werden. Nach dem Aushängen des Dateisystems muss übrigens die verschlüsselte Gerätedatei abgemeldet werden — sonst droht Datenverlust:

umount /tmp/home_mattias/
cryptsetup luksClose mattias
rm -rf /home/mattias
mkdir /home/mattias
chown -R mattias:mattias /home/mattias

Sollte die Gefahr bestehen, dass sensible Daten zurückgeblieben sind, nullen Sie einfach die freien Festplattenbereiche:

dd if=/dev/zero of=/home/nix.nul bs=8192
sync
rm /home/nix.nul

Konfiguration von pam_mount

Zuerst müssen die “Pluggable Authentication Modules” konfiguriert werden. Um “pam_mount” zu aktivieren genügt es, an die Datei /etc/pam.d/common-session die folgende Zeile anzuhängen:

@include common-pammount

Im nächsten Schritt wird die Datei /etc/security/pam_mount.conf.xml angepasst, damit beim Login die Partition mit dem verschlüsselten Heimatverzeichnis gemountet wird. Mit nur einem Volume sah der Dateianfang bei mir so aus — relevant ist vor allem die mit <volume … beginnende Zeile:

<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE pam_mount SYSTEM "pam_mount.conf.xml.dtd">
<!--
	See pam_mount.conf(5) for a description.
-->
<pam_mount>
<!-- Volume definitions -->
<volume user="mattias" fstype="crypt" path="/dev/sdb1" mountpoint="/home/mattias" options="fsck" />
<!-- pam_mount parameters: General tunables -->

That’s it! Nun noch einmal rebooten und per Passwort mit dem neuen verschlüsselten Heimatverzeichnis einloggen.

Feintuning zum Schluss

Der verschlüsselte User ist wertlos, wenn es sich um den einzigen Nutzer handelt. Ich habe daher einen zusätzlichen Nutzer ms mit einfachem Passwort angelegt. Diesem User habe ich Zugangsdaten zu oft von mir benutzten WLANs und einen Satz sinnvolle Bookmarks verpasst. Da dieser Nutzer auch dazu dienen soll, Gäste surfen zu lassen, ohne dass die SDD des EeePC vollläuft, habe ich mich für einen kleinen Trick mit dem temporären Dateisystem entschieden. Zunächst wird /tmp auf ein tmpfs gelegt, was ein Eintrag in der /etc/fstab bewerkstelligt:

tmpfs   /tmp            tmpfs   defaults        0       0

Nun sorgt ein kleines Script /etc/init.d/sync-dummy.sh dafür, dass der Inhalt des von /home/ms nach /home/ms.bak verschobenen Heimatverzeichnisses des Dummy-Users beim Systemstart nach /tmp kopiert wird:

#!/bin/bash
case $1 in
        start )
                rsync -avHP /home/ms.bak/ /tmp/home_ms/
        ;;
esac

Das Script muss jetzt noch ausführbar gemacht und im Runlevel 2 verlinkt werden:

chmod a+x /etc/init.d/sync-dummy.sh
cd /etc/rc2.d
ln -s ../init.d/sync-dummy.sh S95sync-dummy

Damit beim Login auch wirklich das auf tmpfs liegende Heimatverzeichnis verwendet wird, müssen die Pfade in der /etc/passwd noch angepasst werden. Da sich möglicherweise in einigen Konfigurationsdateien harte Referenzen auf /home befinden, ist es ratsam, das alte Heimatverzeichnis durch einen Softlink zu ersetzen:

cd /home/
ln -sf /tmp/home_ms ms

Weiter gedacht

Mit Sicherheit ist die vorgestellte Methode nicht die simpelste. Wenn es schnell gehen soll, dürfte die simple Auswahl eines verschlüsselten Heimatverzeichnisses bei der Installation am ehesten befriedigende Resultate bringen. Vorteil der hier vorgestellten Methode ist jedoch, dass die SD-Karte mit dem Heimatverzeichnis nicht im Netbook verbleiben muss, das Gerätchen funktioniert dennoch unverdächtig. Sollte dann beispielsweise der Zoll den EeePC konfiszieren, werden die Forensiker schnell feststellen, dass die — hoffentlich gut versteckte — SD-Karte fehlt. Und was nicht da ist, kann keiner Kryptanalyse unterzogen werden.

In vielen Fällen ist es mit dem Heimatverzeichnis nicht getan. Wer eine Swap-Partition verwendet, sollte diese auch verschlüsseln oder auf Swap-Dateien auf einem verschlüsselten Datenträger umstellen. Zudem schreiben einige Programme temporäre Daten nach /var/tmp, in diesem Fall sollten Sie auch dieses Verzeichnis auf ein tmpfs legen.

Zu bedenken ist zudem, dass die Wiederherstellung eines defekten Datenträgers schwieriger wird. Ist der LUKS-Header beschädigt, kann das Recovery gänzlich verunmöglicht werden.

Paranoiker dürfte das hier vorgestellte Verfahren nicht befriedigen, weil ich die Existenz einer verschlüsselten SD-Karte gar nicht zu verbergen versuche. Wer ganz sicher gehen möchte, belässt daher das sperrige Xandros auf dem EeePC, bootet sein mit TrueCrypt versehenes Ubuntu komplett von SD-Karte und verwendet einen inneren Container in einem äußeren verschlüsselten Container. Im Falle von Folter gibt er das Passwort des äußeren Containers preis, in dem unverdächtige Dateien und ein paar Dummy-SSH-Schlüssel liegen. Die wirklich privaten Dateien liegen im inneren Container.

Teilen sich mehrere Nutzer (die einander vertrauen) ein Netbook, kann es sinnvoll sein, einen gemeinsamen Container für das gesamte /home zu verwenden. Statt user kommt dann group in der /etc/security/pam_mount.conf.xml zum Einsatz und ein zweiter der acht Passwort-Slots wird für das Passwort des zweiten Nutzers belegt.

Links

Das perfekte Netbook-Setup

  1. Installation von Ubuntu/Xubuntu 8.10
  2. /home reisetauglich verschlüsselt

Wie vielleicht einigen aufgefallen sein wird sind die deutschen (und einige andere anderssprachige) Übersetzungen ziemlich mies. In vielen Applikationen sind Strings nicht übersetzt, sondern das englische Pendant zu sehen. Gutes Beispiel sind die 'Vor' und 'Zurück' Buttons ins Dolphin, die mit 'Back' und 'Forward' beschriftet sind.

Jetzt mag man vielleicht denken: Böse, böse KDE Übersetzer, warum ist das noch nicht gemacht? Aber halt, in der Version von KDE4 unter Hardy waren diese Strings bereits übersetzt...so what?!

Dazu folgende Erklärung wie das bei *buntu mit den Übersetzungen läuft:

Die meisten Applikationen werden ja nicht vom Ubuntu-Team übersetzt, sondern upstream in den Entwicklungszweigen der Applikationen selbst. In diesem Fall werden die KDE-Apps von den jeweiligen KDE-Translation-Teams übersetzt. So weit so gut.

Nun ist es bei *buntu aber so, dass diese upstream-Übersetzungen nicht einfach übernommen werden. Sie werden zuerst in eine in Launchpad integrierte Komponente namens Rosetta übernommen. Erst von dort aus werden die Pakete generiert, die dann letztendlich in die Distribution übernommen werden.

Ok, wo liegt jetzt das Problem?

Das Problem der Stunde heißt Rosetta. Eigentlich gut im Ansatz, nämlich das es mit diesem Tool möglich ist das auch Leute die mit Übersetzungen eigentlich nichts am Hut haben einzelne Strings zu übersetzen, ohne dafür zusätzliche Software zu installieren oder ähnliches. Die Hürde etwas zur Übersetzung seines Lieblingsprogrammes beizutragen sinkt also.

Problem ist, das Rosetta leider schon eine große Rolle im *buntu-Release-Zyklus spielt, aber bei weitem noch nicht ausgereift ist. So wurden die eigentlich zu 100% kompletten Übersetzungen von KDE4 durch einen Bug in Rosetta nicht in das System übernommen und Intrepid erhielt Sprachpakete in denen nur die Übersetzungen enthalten sind, die in KDE3 schon vorhanden waren...

Den entsprechenden Bug-Report findet ihr hier: Launchpad Bug 292473 So wie es aussieht wird es wohl (immer) noch ein paar Tage dauern bis die Misere aus der Welt geschaffen sein wird. Peinlich, ärgerlich und enttäuschend vor allem für die upstream-Übersetzer, die wirklich gute Arbeit leisten.

Einen Thread im ubuntuuser.de-Forum gibts auch mit einigen Meinungen eines KDE-Übersetzers zur Lage: Gemischte Sprache in Kubuntu 8.10

Das Problem besteht darin, dass Kubuntu nicht einfach die Übersetzungen des KDE-Teams ausliefert, sondern erst alle Übersetzungen in Launchpad einliest, um diese dann der "Ubuntu-Community" nochmal zum Übersetzen anzubieten. Dieser extrem fehlerträchtige Prozess hat noch nie richtig funktioniert, so dass Kubuntu schon immer schlechter übersetzt war, als andere Distributionen. [Kuhrscher]

Auf der KDE-Übersetzer-Mailingliste gibt es zur Zeit eine Diskussion ob man Support Anfragen von Kubuntu-Nutzern betreffend die Übersetzung schlichtweg nicht mehr beantwortet und auf launchpad verweisen sollte. Ob das eine Lösung ist kann ich auch nicht sagen, aber ich kann verstehen das die Jungs und Mädels ganz schön angepisst sind, das die Schuld an dem Chaos auchauf sie zurückfällt, obwohl sie eigentlich nichts damit zu tun haben...denn eine offizielle Stellungnahme seitens Kubuntu habe ich bisher nicht finden können (falls es eine gibt, her damit!).

Eine kleine Zusammenfassung nochmal zum Schluss:

  • Die KDE-Übersetzungen sind eigentlich zu 100% komplett (zumindest die deutschen)
  • Der Prozeß upstream-Übersetzungen in Ubuntu zu übernehmen ist zu fehlerträchtig um zuverlässig sein zu können
  • Bug-Reports bezüglich der Übersetzung von Kubuntu bitte ins Launchpad und nicht die damit nerven die nichts dafür können ;-)

So, ich hoffe das schafft wenigstens ein wenig Licht ins Dunkel. Hoffen wir das diese Geschichte ein gutes und zufriedenstellendes Ende für alle Beteiligten haben wird.

Tags: | | | | |

Meine wenigen Bilder verwalte ich am liebsten offline, auf meinem eigenen Rechner. Zwar nutze ich gerne den Dienst Flickr, dort exportiere ich aber nur jene Bilder, die ich auch teilen will (und darf). Facebook ist nicht so mein Ding, und Bilder horte ich dort keine. Lokal nute ich seit einiger Zeit F-Spot. Die recht gut ausgebaute Bilderverwaltung, welche eine SQLite-DB nutzt, wird unter Ubuntu gleich mitinstalliert. Unter LinuxMint musste ich die Anwendung noch installieren, das ist aber kein Aufwand:

sudo apt-get install f-spot

Nebst dem Vorteil, dass F-Spot auch RAW nutzen kann, liebe ich vor allem die Export-Möglichkeiten direkt nach Flickr und andern Diensten. Aber auch das Tagging ist für meine Bedürfnisse optimal ausgestaltet. Damit lassen sich leicht Gruppen, die auch verschachtelt sein dürfen, erstellen.

Ein weiterer, grosser Vorteil ist die Möglichkeit, die mit F-Spot erzeugten Metadaten zu den einzelnen Bildern direkt in die Dateien einarbeiten zu lassen. Damit gehen diese Daten wie Tags, Gruppen, Beschreibungen und so weiter nicht verloren, falls einmal die SQL-Datenbank abrauchen würde. Diese Option muss allerdings in den Einstellung noch aktiviert werden: Metadaten in Dateien schreiben

Sollte tatsächlich die SQLite-Datenbank verloren gehen, dann sind ja hoffentlich die Bilder noch da, weil sie nämlich in einer andern Partition oder mindestens in einem andern Verzeichnis liegen. Dann reicht es, das Verzeichnis .gnome2/f-spot im Home-Ordner zunächst umzubenennen oder zu verschieben, um hernach F-Spot erneut zu starten. Die DB wird dann neu angelegt und danach kann man die Bilder wie gewohnt importieren. Jetzt sind alle Daten inklusive der Metadaten wieder da.

Ich habe die Erfahrung gemacht, dass eine zu hohe Anzahl an Bildern, die man in einem Rutsch importieren will, zu Qualitätseinbussen beim Einlesen der Metadaten führen kann. Deswegen sollte man die Bilder eher pro Jahr einlesen oder jene sogar noch in Monate aufteilen, je nach Anzahl der Bilder. Auf jeden Fall konnte ich 5.500 Bilder in einem Rutsch importieren, die Hälfte der Metatdaten waren aber nicht da. Erst als ich den Vorgang in Tranchen zu je ungefähr 500 Bildern wiederholte, klappte auch der Import der vollständigen Metadaten.

Nachdem am Montag die 3. beta von Amarok 2.0 veröffentlich wurde, hier mal eine kurze Anleitung zur Installation unter dem letzten Ubuntu-Release Intrepid Ibex.

Aber Vorsicht: Unter Intrepid wird der bereits installierte Amarok 1.4 ersetzt, ein Parallelbetrieb ist mit dieser Anleitung nicht möglich! Zudem ist Amarok immer noch im Beta Status, weiteres dazu am Ende dieses Artikels.

Zuerst das Kubuntu Members Personal Package Archive zu den Apt-Quellen hinzufügen:

deb http://ppa.launchpad.net/kubuntu-members-kde4/ubuntu intrepid main

Dieses muss in die sources.list eingetragen werden. Oder man lädt diese Datei herunter und legt diese als root in das Verzeichnis
/etc/apt/sources.list.d/
Anschließend folgt ein
sudo apt-get update
Und anschließend die Installation mit
sudo apt-get install amarok-kde4

Damit wird (falls vorhanden) der vorhandene Amarok 1.4.10 entfernt und Amarok 2.0 beta3 installiert.

Noch einmal der Hinweis: Amarok befindet sich in der Beta Phase, das heißt es können noch Probleme mit einigen Komponenten auftreten, die bis zur völligen Unbenutzbarkeit führen können. Falls euch irgend etwas auffällt, ob nun gravierend, oder auch nur Kleinigkeiten, helft den Entwicklern und schreibt einen Bugreport.

Für Amarok solltet ihr euch dafür auf dem KDE Bugtracker anmelden und den Assistenten nutzen um den Bug den Entwicklern mitzuteilen.

Tags: | | | | | |

4. November 2008

Die gute, alte und sichere 802.1x-Authentifizierung! Bei Ubuntu 7.10 war sie schwer einzurichten, bei 8.04 mit wenigen Klicks zu machen, und bei 8.10 muss ich sie wieder suchen…Und trotzdem verwenden viele Universitten, so auch meine, diese “Sicherheit” verwendet.Doch wenigstens hat man die Einfachheit (kann man das sagen?) von 8.04 auch zu 8.10 bernommen, so dass [...]

Die gute, alte und sichere 802.1x-Authentifizierung! Bei Ubuntu 7.10 war sie schwer einzurichten, bei 8.04 mit wenigen Klicks zu machen, und bei 8.10 muss ich sie wieder suchen…

Und trotzdem verwenden viele Universitäten, so auch meine, diese “Sicherheit” verwendet.

Doch wenigstens hat man die Einfachheit (kann man das sagen?) von 8.04 auch zu 8.10 übernommen, so dass ich mich nach wenigen Klicks schon Authentifizieren konnte.

Doch was ist zu tun? Es ist ganz einfach:

Man öffnet als erstes die Netzwerk Konfiguration unter System > Einstellungen:

Nun wählt man auf der rechten Seite Hinzufügen, und gelangt damit zu folgendem Fenster. Da wechselt man zum Reiter 802.1x-Sicherheit:

Nun wählt man als Authentifizierung PEAP aus, die Version von PEAP muss man auf Version 0 setzen. Mit Version 1 hat es bei mir nicht funktioniert. Nun nur noch den Username und das Passwort angeben und die “Konfiguration” (wenn man dies überhaupt so nennen kann) ist beendend. Ganz oben im Fenster kann man der Verbindung noch einen Namen geben.

Nun kann man, nach einem Klick auf das Netzwerkicon im Pannel oben rechts, das eben erstellte Netzwerk auswählen. Während dem Verbinden wird man noch gefragt, ob der Zugriff auf den Schlüssel erlaubt werden soll. Hier kann man, falls man nicht mehr gefragt werden will immer gewähren auswählen. Verweigert man den Zugriff, so kann keine Verbindung hergestellt werden!

Eigentlich sollte ja jeder selbst auf die Lösung kommen, da sie wirklich einfach ist (Auch ich habe sie gefunden und das will was hei�?en :D ) Obwohl mir der Weg von 8.04 eigentlich besser gefallen hat, da er “schneller” war. Ich wei�?, es sind nur 3 Klicks mehr, aber auf sowas lege ich Wert!

Was solls :) Hauptsache es funzt…

Nach Ogg Vorbis steht mit Ogg Theora nun endlich auch ein vollständig freier Video-Codec zur Verfügung.

Bereits 2002 wurde die Entwicklung gestartet, nachdem On2 Technologies ihren Codec VP3.2 der Xiph.Org Foundation zur Verfügung stellte. Nach fünf Jahren der Weiterentwicklung trat im September vergangenen Jahres der Codec dann in das Beta-Stadium ein. Nach Aussagen der Entwickler unterscheide sich die nun veröffentlichte finale Version nur durch die nun vollständige Dokumentation von der Beta-Version.

Theora steht unter einer BSD-artigen Lizenz, die sowohl die private als auch kommerzielle Nutzung gestattet. So wird der Codec auch bereits von vielen Anwendungen unterstützt, wie zum Beispiel dem kommerziellen Real Player oder der freie VLC Player, aber auch die kommende Firefox-Version soll Theora von Haus aus nutzen können. Wikipedia verwendet Ogg Theora bereits für Videos.

Insofern wünsche ich dem "neuen" Codec einen guten Start und eine glanzvolle Zukunft!

Quelle: http://www.xiph.org/press/2008/theora-release-1.0/

Da ich für das tolle Gimp-Plugin ein kurzes Video aufnehmen wollte, musste ein Aufnahme-Programm her. Nach kurzer Suche habe ich folgendes Programm gefunden und auf erfolgreich getestet:

recordMyDesktop

Schnell installiert mit:
sudo apt-get install recordmydesktop
sudo apt-get install gtk-recordmydesktop


Danach findet sich das tolle Programm mit einem angenehm aufgeräumten Interface unter Anwendungen - Unterhaltungsmedien.

Eine schnelle Aufnahme kann man alternativ auch mit einem kurzen Terminal Befehl aufnehmen.
recordmydesktop

Beenden kann man die Aufnahme mit Str+c - die fertige Datei liegt dann in eurem Home-Verzeichnis.

Mehr dazu hier und hier.
"Bildschirm Video erstellen oder Screenshot mal bewegt (recordMyDesktop)" vollständig lesen

Die Alpha von XFCE 4.6 wurde ja grade veröffentlicht, man nennt sie PINKIE. Ich hab es mal kompiliert ...
Runterladen kann man sich die nötigen Pakete auch zusammen in einem großen Archiv. Wichtig ist, die Bau-Reihenfolge einzuhalten. Hier sind auch die Abhängigkeiten dokumentiert. Bei Ubuntu sind diese Pakete zu installieren:
- build-essential
- pkg-config
- libglib2.0-dev
- intltool
- libx11-dev
- libgtk2.0-dev
- libglade2-dev
- libgladeui-1-dev
- libgtk2.0-doc
- gtk-doc-tools-
- libstartup-notification0-dev
- libhal-dev
- libhal-storage-dev
- python-gtk2-dev
- libdbus-glib-1-dev
- libgamin-dev
- libexif-dev
- libpcre3-dev
- libwnck-dev
- libnotify-dev
- libgstreamer-plugins-base0.10-dev
- libcups2-dev
Nach der Kompilierorgie kann man XFCE wie gewohnt entweder aus der Konsole mit startxfce4 oder aus dem Loginmanager starten. Jetzt noch die nötigen Panel-Plugins kompilieren und spielen ...

Oh ja, dass ist mein Ernst! Firefox muss etwas gegen WYSIWYG-Editoren haben! Eigentlich gebrauche ich auch keine solche Editoren, doch bei Webtools wie Foren oder Wordpress sind sie noch ganz praktisch! Doch wie schon erwähnt, Firefox mag diese nicht! Doch der Reihe nach: Plötzlich, ich habe wirklich nicht nachgeholfen, lässt Firefox meine WYSIWYG-Editoren (Na dann schau es halt bei Google nach!) einfach verschwinden!

Doch wieso? Und wohin? Aktuell habe ich echt keine Ahnung… und so wie es aussieht auch niemand aus dem uu.de Forum! Da bleib mir wohl nur hoffen!

3. November 2008

Keine Ahnung warum, aber die PDF-Software Evince wollte hier partout keine Links öffnen, weder im Standardbrowser Firefox noch in anderen Browsern.

Also wieder geforscht, gesucht, Evince scheint keine Konfigurationsdatei(en) zu besitzen, per Gconf ist auch nichts zu finden – Ratlosigkeit macht sich breit.

Dabei war die Lösung so einfach: Evince benutzt die Standardeinstellungen Gnome’s für Bevorzugte Anwendungen. In selbigem Menü unter dem Punkt System findet sich für den Standardbrowser in einer 3 Wochen alten Intrepid-Installation folgender EIntrag: /usr/lib/firefox-3.0.1/firefox "%s". Genau diesen Eintrag verwendet Evince für den Browseraufruf, schade nur dass es diesen Pfad nicht mehr gibt. Stattdessen liegt Firefox nun in /usr/lib/firefox-3.0.3. Damit das nicht bei jedem Firefox-Update passiert gebe man unter System->Einstellungen->Bevorzugte Anwendungen für den Browser einfach firefox "%s" an – und alles funktioniert wie gewünscht, auch Evince öffnet geklickte Links in PDF-Dateien brav im Feuerfuchs.

Ab heute Nachmittag 16:00 Uhr deutscher Zeit (15:00 UTC), finden im #ubuntu-classroom Channel im freenode-IRC-Netzwerk Workshops zum Thema Ubuntu statt.

Neben einigen rein Informativen Sessions gibt es auch einige Workshops rund um das Ubuntu Paket-Management und Bug Reporting. Zusätzlich gibt es am Donnerstag von 16-18 Uhr, 2 Fragestunden mit Mark Shuttleworth, dem Gründer und Hauptsponsor von Ubuntu.

Mehr Informationen zur Ubuntu Open Week gibt es im Ubuntu Wiki, dort ist auch der genaue Zeitplan der Vorträge und Workshops zu finden.

Also, wer mehr über die Hintergründe hinter Ubuntu erfahren möchte: IRC-Clients anwerfen und fleissig zuhören:

  • #ubuntu-classroom - hier werden die Vorträge stattfinden
  • #ubuntu-classroom-chat - hier kann diskutiert werden und Fragen an den Vortragenden gestellt werden

beides findet sich auf irc.freenode.net. Eine Anleitung zum Einrichten eines IRC-Clients findet ihr im ubuntuusers.de-Wiki.

Würde sagen, man sieht sich!

Tags: | | | |

Der Upgrade auf Ubuntu 8.10 verlief bei mir hervorragend und ohne Probleme. Ich war eigentlich zufrieden, stellte dann aber rasch fest, dass das ganze System erwartungsgemäss etwas weniger flüssig lief. Das sind ja oft gefühlte Werte und ohne viel Aufwand lassen sich solche Eindrücke nicht bestätigen. Aber für mich reicht der subjektive Eindruck, objektiv bestätigen muss ich das für mich selbst nicht. Da ich mich ohnehin nach einer Alternative zu Ubuntu umsehe - Debian und Sidux habe ich schon mal probiert, mit Debian sogar ein Jahr gearbeitet - stiess ich bei diesem Kommentar von Tim auf Linux Mint. Falls eine Distribution auf Debian aufsetzt, wirkt sie bei mir schon sehr sympathisch. Linux Mint tut das zwar nur indirekt, denn es ist ein Abkömmling von Ubuntu. Aber dennoch: Ich bleibe in der APT-Zone.

Linux Mint gibt es im Moment in der 5. Version namens Elyssa. Aktuell dazu wäre die 5.r1 zu nennen. Davon habe ich eine LiveCD heruntergeladen und den Klapprechner damit gestartet. Klappte ganz gut und ich meinte, Mint würde recht flüssig arbeiten; selbst ab der CD. Und so habe ich nicht lange gefackelt, eine Sicherung erstellt und danach Mint installiert, direkt ab der LiveCD. Mint kommt in der Main Edition mit Gnome daher, das ist mir sehr sympathisch, denn KDE passt mit nicht und mit XFCE kann ich mich auch nicht wirklich anfreunden.

Da Mint nahe zu Ubuntu steht, können praktisch alle Quellen davon benutzt werden. Weiter ist auch das Rückspielen der Sicherung denkbar einfach. Bei meinem Lieblings-Mail-Clienten, dem Sylpheed, musste ich lediglich die Anwendung installieren, das Verzeichnis mit den Mails und das Konfigurationsverzeichnis zurückspielen, weiter noch die Daten vom Verzeichnis .gnupg zurückstellen und alles lief auf Anhieb wieder. Dasselbe bei (fast) allen andern Anwendungen. Da soll sich doch mal ein Windows-User daran versuchen und seine Registry zurückspielen ;-)

Mint arbeitet flüssiger und schneller als das neueste Ubuntu 8.10. Allerdings vergleiche ich dabei Äpfel mit Birnen, denn Mint bezieht die meisten Daten noch aus den Quellen von Hardy. Ein paar wenige Pakete stammen aus einem eigenem Pool, speziell für Mint aufbereitet. Immerhin habe ich meine gewohnte Arbeitsumgebung, die Applikationen, die ich gerne nutze und so macht das Wirken am Rechner mehr Spass. Ich teste wohl gerne das Eine oder Andere aus, aber fühle mich trotzdem wohl, wenn ich Bekanntem begegne.

Das Hauptmenü, welches unter Mint fast wie das Startmenü von Vista oder dasjenige von SuSE ausschaut, behagt mir nicht ganz, ist aber wohl nur gewöhnungsbedürftig. Eigentlich hätte ich lieber das gute, alte Menü vom Onkel Debian.

Bis jetzt bin ich recht zufrieden mit Mint und meine, dass mein System wieder flüssig und rasch dahingleitet. Mit der Zeit werde ich dann wohl auf die eine oder andere Herausforderung stossen. Halbherzig geplant habe ich dann noch einen Ausflug zu Gentoo, das ist aber eine ganz andere Philosophie.

2. November 2008

Ich benutze jetzt schon seit einigen Jahren Gnome als Oberfläche.

Jetzt habe ich mir auf meinem Hardy-System unter VirtualBox einmal Intrepid Ibex mit Ubuntu (Gnome), Kubuntu (KDE) und Xubuntu (XFCE) eingerichtet und ich bin überrascht.

Kubuntu startet unter VirtualBox schneller als Ubuntu oder Xubuntu und sieht auch noch um Klassen besser aus.

Wenn die Kinderkrankheiten weg sind, werde ich mich vermutlich mal wieder an KDE wagen.

Was mir schon immer besser gefallen hat, war die Integration von KMail, KOrganizer und aKregator in Kontact. Evolution mag ich einfach nicht, daher benutze ich derzeit Claws-Mail.