ubuntuusers.de

14. Januar 2010


HURD ist ja der Running Gag der Betriebssysteme, meiner Meinung nach wird es vermutlich mit Duke Nukem Forever das Licht der Welt erblicken. ;)

Das Debian-Projekt werkelt ja nun schon seit einer Weile an HURD herum… Nun hat sich eine zweite mir bekannte Distribution, dem Thema HURD angenommen:

Arch HURD

Ich bin gespannt, welches der Projekte als erstes eine stabile HURD-Distribution gebähren wird ;)

Erklärung was HURD eigentlich ist.

Gestern, am 13.01.2010 ist der erste Beitrag im Serendipity Blog 5 Jahre alt geworden. Ich habe letztes Jahr schon erfreut festgestellt, das sich in den Kommentaren wirklich zu 99% nur hilfreiche, zum jeweiligen Thema passende Einträge finden. Im letzten Jahr hat sich die Zahl der Einträge nicht wesentlich erhöht. Nun, ich habe ein paar andere Schwerpunkte gehabt und das Blog nicht mehr so stark gefüttert.

Aber das Blog ist ist nicht verwaist, es dient mir und offensichtlich auch anderen als Gedächtnisstütze. 

Eigentlich könnte ich hier den Text meines letztjährigen Geburtstagsbeitrages wiederholen, ich unterlasse es hier und lade zum Lesen ein, schliesslich sind wir ja alle Hyperlinks gewöhnt ;-)

Da ich ja in den nächsten Wochen einen neuen Rootserver aufsetze, wird im nächsten Schritt das Blog auf diesen Server umziehen. Ich bin mir sicher, das ich wieder Serendipity nehmen werde. Vielleicht ein neues Design, mal sehen.

Was sich nicht ändern wird, ist, das diese Site 100% kommerzfrei bleiben wird. Mich nervt die Werbung selber, warum sollte ich das meinen Besuchern zumuten? Achja, es gibt auch keine Usertracking Software, ich habe auch keine Webbugs.


Gestern, am 13.01.2010 ist der erste Beitrag im Serendipity Blog 5 Jahre alt geworden. Ich habe letztes Jahr schon erfreut festgestellt, das sich in den Kommentaren wirklich zu 99% nur hilfreiche, zum jeweiligen Thema passende Einträge finden. Im letzten Jahr hat sich die Zahl der Einträge nicht wesentlich erhöht. Nun, ich habe ein paar andere Schwerpunkte gehabt und das Blog nicht mehr so stark gefüttert.

Aber das Blog ist ist nicht verwaist, es dient mir und offensichtlich auch anderen als Gedächtnisstütze. 

Eigentlich könnte ich hier den Text meines letztjährigen Geburtstagsbeitrages wiederholen, ich unterlasse es hier und lade zum Lesen ein, schliesslich sind wir ja alle Hyperlinks gewöhnt ;-)

Da ich ja in den nächsten Wochen einen neuen Rootserver aufsetze, wird im nächsten Schritt das Blog auf diesen Server umziehen. Ich bin mir sicher, das ich wieder Serendipity nehmen werde. Vielleicht ein neues Design, mal sehen.

Was sich nicht ändern wird, ist, das diese Site 100% kommerzfrei bleiben wird. Mich nervt die Werbung selber, warum sollte ich das meinen Besuchern zumuten? Achja, es gibt auch keine Usertracking Software, ich habe auch keine Webbugs.


Ich habe eine 8-stellige ICQ-Nummer. Ich bin also schon eine Weile dabei. Im Gegensatz zu manch anderen ist das mein erster und einziger Account, soweit ich mich erinnern kann. Ich frage mich ja manchmal, seit wann ich Internet habe, denn in etwa so lange habe ich auch diesen Account.

“Ah-Ooohh.”

Ich hatte ICQ, weil es so geil war, so schnell, so toll, so bunt. Die Welt war bunt, und ich konnte mit meinen Freunden Chatten und Dateien tauschen.

Dann kam die Werbung. ICQ wurde werbeverseucht und wir tauschen untereinander, die neuen, werbefrei-Patches für ICQ und schickten Ketten-Nachrichten herum, dass ICQ kostenlos bleiben sollte, dass man blaue ICQ-Blumen wollte und was weiss ich. Es war die Zeit, zu der AOL in Deutschland noch CDs verteilte. 6.0 glaube ich, war es damals.

Ich habe immer noch einen von 2 MSN-Accounts. Die hatte ich weil einige meiner Freunde zu doof oder faul waren, sich ICQ runterzuladen. Und weil meine Cousine das hat. Den einen mit der Hotmail-Adresse habe ich nicht mehr, ich kam da irgendwie nicht mehr rein und/oder hatte mein Passwort vergessen.

Ich habe einen AIM-Account. Naja, ich hatte auch Freunde bei AOL. Eine meiner Ex-Freundinnen und ihre Schwester hatten/haben AIM. Und einer meiner damals besten Schulkumpels.

Ich habe 3 XMPP/Jabber-Accounts. Die sind alle relativ neu. Google Talk war der erste. Google Talk war geil, weil es einen Open Source Standard nutzte. Google Talk loggt die Hölle. Und trotzdem hat sich Google Talk in meiner Firma – und ich bin mir sicher, in vielen anderen Firmen auch – als Kommunikationsstandard etabliert. Mein Versuch, vor über einem Jahr, die Leute dazu zu bringen, einen eigenen Jabber-Server aufzusetzen, hat leider nicht gefruchtet. Dadurch, dass unser Azubi das Thema aus Langeweile aufgegriffen hat, besteht immerhin eine Chance, es in diesem Jahr umgesetzt zu bekommen. Endlich. Dann kann ich endlich die ganzen nicht-privaten und firmen-extenen Kontakte aus meiner Firmenliste schmeissen, so dass ich, wenn ich mich in der Firma auslogge, nicht auch die ganzen Firmenkontakte in meiner Freizeit rumschleppe, sondern dies bewusst steuern kann.

Außerdem kann ich nur jedem davon abraten, in Zukunft ICQ neu zu installieren oder einen Account da zu beantragen. United Internet bietet mit dem Web.de und dem GMX-Multimessenger zwei XMPP-basierte Chatsysteme an, d.h. jede GMX und Web.de-Adresse ist auch eine Jabber-ID, was einiges schick einfach macht, ebenso bei Google Talk.

Darüber hinaus ist Jabber deutlich überlegen, was die vielfältigkeit der Kommunikation in Bezug auf Multiuser-Chats angeht. Wenn irgendeine Technik irgendwann mal das Zeug haben sollte, das gute alte IRC zu ersetzen, dann XMPP.

Darüber hinaus ist ein eigener Server schnell aufgesetzt, ganz ohne komische Lizenzbedingungen und Datenspeicherung bei Google (außer man chattet mit einem Google Talk User, der alles speichert).

Insgesamt ist meine Empfehlung, die ICQs und AIMs der Welt endlich zu verbannen und auf XMPP/Jabber umzusteigen. Das Problem an der ganzen Geschichte ist das gleiche, das ICQ erst groß gemacht hat: man nutzt das, was die Freunde nutzen. Und wenn die aus Trägheit, Faulheit oder Ignoranz nicht mitmachen steht man entweder alleine da, oder man macht weiter wie bisher…

Immerhin hatte ich seit meinen ersten Tagen mit mehreren IM-Netzen einen Multimessenger, so dass ich wenigstens nicht 5 Programme brauchte. Ich habe mit Trillian 2 angefangen, dann bin ich auf Miranda umgestiegen, weil mir Trillian 3 zu viel Ressourcen brauchte und mit dem Wechsel auf Linux auf Pidgin – auch auf den Windows-Rechnern. Mittlerweile nutze ich ja hauptsächlich irssi und bitlbee, und für die Jabber-Accounts wahlweise Pidgin, oder, was ich neu für mich entdeckt habe, den reinen Jabber-Client Psi.

Update: Google Wave hat das Google Wave-Protokoll übrigens auch auf der Basis von XMPP geschrieben. Und die Server-zu-Server Synchronisierung von Status.net-Installationen läuft auch via XMPP.

Mit dem neuen Kernel der Version 2.6.32.3 funktioniert der NFS-Kernel-Server nicht mehr, beim Starten bringt er immer folgende Meldung:

/etc/init.d/nfs-kernel-server start
 * Not starting NFS kernel daemon: no support in current kernel.

Der Bug ist, wie man in vielen Bugreport’s und Group’s lesen kann, bereits bekannt.

[gelöst]sid nfs-kernel-server mit kernel 2.6.32 trunk
#550153 – /proc/kallsyms does not contain init_nfsd on 2.6.32
Bug#561674: nfs-kernel-server: Test for NFS kernel server support in init script doesn’t work for compiled in nfs support

Lösung: Die Zeile im init-Skript /etc/init.d/nfs-kernel-server auskommentieren…

# See if our running kernel supports the NFS kernel server
if [ -f /proc/kallsyms ] && ! grep -qE 'init_nf(sd|     )' /proc/kallsyms; then

…und eine zusätzliche Zeile einfügen, so sollte es dann aussehen.

# See if our running kernel supports the NFS kernel server
# EDIT by NH - loggn.de
# if [ -f /proc/kallsyms ] && ! grep -qE 'init_nf(sd|     )' /proc/kallsyms; then
if ! [ -d /sys/module/nfsd ]; then
    log_warning_msg "Not starting $DESC: no support in current kernel."
    exit 0
fi

13. Januar 2010

möchte ich hier nichtssagend einen Blogpost verfassen. Werde einfach einen nonsense Screenshot meines Macbooks anhängen und sehen ob was passiert.

Bildschirmfoto 2010-01-05 um 14.04.04

Genauso sinnig wie der Berufsschulbesuch den ich diese Woche wieder tätige.

Ich habe mir vor ein paar Tagen die aktuelle Entwicklerversion vom Webkit-Browser Midori angesehen. Dazu habe ich die zwei PPAs von Midori und Webkit in Ubuntu 9.10 Karmic Koala eingebunden. Das Webkit-PPA wird für aktuelle Webkit-Bibliotheken benötigt. So wurden neben dem Open-Source-Browser auch bereits installierte Pakete aktualisiert. Zwar sieht Midori recht schick aus und kann schon einiges, jedoch ist er für den alltäglichen Gebrauch noch ungeeignet. Also wieder runter damit!

Das Paket midori ließ sich auch ohne Probleme deinstallieren, jedoch machten libsoup2.4-1 und libsoup-gnome2.4-1 Probleme. Denn hätte ich diese ohne weiteres durch ältere Versionen ersetzt, dann wären wegen ein paar Abhängigkeiten Programme wie Banshee, Pidgin, Evolution, Totem und Gwibber entfernt worden. Deshalb musste ich die Abhängigkeiten ignorieren und dann die ältere Paketversion installieren:

sudo apt-get install --force-yes libsoup2.4-1=2.28.1-2 libsoup-gnome2.4-1=2.28.1-2

Nach meinem Kernelupdate auf Version 2.6.32.3 wollte ich ganz normal, wie in der alten HowTo beschrieben, loop-AES kompilieren. Jedoch lief bereits das Kompilieren von util-linux-2.12r auf Fehler.

cc -c -O2 -fomit-frame-pointer -I../lib -Wall -Wmissing-prototypes -Wstrict-prototypes -DNCH=1   -D_FILE_OFFSET_BITS=64 -DSBINDIR=\"/sbin\" -DUSRSBINDIR=\"/usr/sbin\" -DLOGDIR=\"/var/log\" -DVARPATH=\"/var\" -DLOCALEDIR=\"/usr/share/locale\" -O2 fsck.cramfs.c -o fsck.cramfs.o
fsck.cramfs.c:79:22: error: asm/page.h: No such file or directory
fsck.cramfs.c: In function ‘romfs_read’:
fsck.cramfs.c:144: warning: ignoring return value of ‘read’, declared with attribute warn_unused_result
fsck.cramfs.c: In function ‘do_symlink’:
fsck.cramfs.c:274: warning: ignoring return value of ‘symlink’, declared with attribute warn_unused_result
fsck.cramfs.c: In function ‘do_uncompress’:
fsck.cramfs.c:361: warning: ignoring return value of ‘write’, declared with attribute warn_unused_result
fsck.cramfs.c: In function ‘main’:
fsck.cramfs.c:532: warning: ignoring return value of ‘read’, declared with attribute warn_unused_result
make[1]: *** [fsck.cramfs.o] Fehler 1
make[1]: Verlasse Verzeichnis '/usr/src/util-linux-2.12r/disk-utils'
make: *** [all] Fehler 1

Um dieses Problem schnellstmöglich zu umgehen habe ich mich für die util-linux Alternative util-linux-ng entschieden. Kurz und knapp nochmal die veränderte HowTo:

Zuerst installieren wir uns ein wenig Kernelzubehör.

aptitude install linux-headers-`uname -r` make gcc bzip2

Jetzt holen wir uns die Source von util-linux-ng und loop-AES

cd /usr/src
wget ftp://ftp.kernel.org/pub/linux/utils/util-linux-ng/v2.16/util-linux-ng-2.16.1.tar.gz
tar xvfz util-linux-ng-2.16.1.tar.gz
wget http://loop-aes.sourceforge.net/loop-AES-latest.tar.bz2
tar xvfj loop-AES-latest.tar.bz2</pre>

Nun kompilieren wir util-linux-ng

cd util-linux-2.12r
patch -p1 </usr/src/loop-AES-v3.2h/util-linux-2.12r.diff
CFLAGS=-O2 ./configure
make clean
make SUBDIRS="lib mount"
cd mount
install -m 4755 -o root mount umount /bin
install -m 755 losetup swapon /sbin
rm -f /sbin/swapoff && ( cd /sbin && ln -s swapon swapoff )
rm -f /usr/share/man/man8/{mount,umount,losetup,swapon,swapoff}.8.gz
install -m 644 mount.8 umount.8 losetup.8 /usr/share/man/man8
install -m 644 swapon.8 swapoff.8 /usr/share/man/man8
rm -f /usr/share/man/man5/fstab.5.gz
install -m 644 fstab.5 /usr/share/man/man5
mandb
cd ../..

…und nun loop-AES.

cd ../../loop-AES-v3.2h
make
rm /lib/modules/`uname -r`/kernel/drivers/block/loop.*
rm /lib/modules/`uname -r`/kernel/drivers/block/cryptoloop.*
reboot
cd /usr/src/loop-AES-v3.2h
make tests

Mehr Informationen findet ihr hier:
Ubuntu/Debian – Loop-AES einrichten (alt)
Ubuntu/Debian – Loop-AES selber kompilieren (neuer)

Unsere neue Hardware für den Rootserver kann sich wirklich sehen lassen. Es handelt sich um den EQ6 von Hetzner.
  • i7-920 Quad-Core
  • 12 GB RAM
  • 1,5 TB im Raid 1

Ich habe darauf ein Debian Lenny installiert. Die riesige Harddisk habe ich bis auf einem kleinem /boot einer  LV Group zu geordnet.

Dateisystem         Größe Benut Verf Ben% Eingehängt auf
/dev/mapper/vg0-root     10G  1,4G  8,1G  15%  /
/dev/md0                251M   24M  214M  11%  /boot
/dev/mapper/vg0-tmp     5,0G  139M  4,6G   3%  /tmp
/dev/mapper/vg0-home     25G  208M   24G   1%  /home
/dev/mapper/vg0-var     497G  1,7G  470G   1%  /var
/dev/mapper/vg0-backup  120G  1,8G  112G   2%  /backup
/dev/mapper/vg0-vz       50G  1,6G   46G   4%  /var/lib/vz

tmpfs                   5,9G     0  5,9G   0%  /lib/init/rw
udev                     10M  768K  9,3M   8%  /dev
tmpfs                   5,9G  4,0K  5,9G   1%  /dev/shm

 

Hat mich beim dem jetzigen Server schon sehr geärgert. Das ist einer der Hauptärgernisse des alten Servers. Von der Geschwindigkeit, und Auslastung her gesehen, wäre es nicht notwendig gewesen, einen neuen Server zu mieten. Aber da ich auf eine andere Adminoberfläche umsteigen wollte, bot sich der Umstieg an. Dadurch wurde das umstellen auf eine Volumegroup ein klacks.

Auf dem Rootserver wird u.a. ein Gameserver für IL-2 Sturmovik laufen. Der Server läuft nur unter wine. Da ich auf dem alten Server ein wenig Bauchschmerzen damit hatte, dachte ich mir, es wäre eine gute Idee, den Server in einer abgeschotteten virtuellen Maschine zu verfrachten. Ich habe mich für die Virtualisierungslösung OpenVZ entschieden, das ist der GPL2 lizensierte Bruder der kommerziellen Lösung Virtuozzo.

Wenn man OpenVZ auf einem System betreibt, das auf einer Logical Volume installiert ist, besteht die Möglichkeit, den Gast im laufenden Betrieb zu sichern. Das Verfahren nennt sich Snapshot und ist Bestandteil der LVgroup Software. Damit das mit OpenVZ funktioniert, muss der Ort für die virtuellen Maschinen auf einem eigenen Volume liegen und man darf nicht vollständig den gesamten Platz der Volumegroup vergeben. Denn zum erstellen eines Snapshots wird temporär ein Volume angelegt, in der die Änderungen während der Sicherung aufgezeichnet werden. Also so etwas wie ein Journal.

Teamspeak Server einrichten http://www.feldstudie.net/2009/12/22/teamspeak-3-how-to-chroot/

dort findet man den Hinweis createinifile=1

Obwohl email out-of-the box funktioniert, ist mir gleich aufgefallen, das die Spam mail unheimlich zugenommen haben. Was tun? Nun, das Paket postgrey war nicht installiert. mit apt-get install postgrey nachgeholt und die postfix main.cf in /etc/postfix/main.cf angepasst.

Die Regel smtpd_recipient_restrictions muss natürlich noch angepasst werden.

#smtpd_recipient_restrictions = permit_sasl_authenticated,permit_mynetworks,reject_unauth_destination
smtpd_recipient_restrictions =
          permit_mynetworks
          permit_sasl_authenticated,reject_unauth_destination
          reject_unauth_destination
          check_policy_service inet:127.0.0.1:60000


Das Jahr 2009 ist zu Ende und ein neues beginnt. Wir haben dies zum Anlass genommen, uns mit dem gesamten Team ein Wochenende zurückzuziehen, um ein bisschen gemeinsam zu programmieren und über den letzten und den kommenden Milestone zu sprechen.

Unsere Rückbetrachtung auf unseren letzten Milestone fiel sehr positiv aus. Wir haben 179 Tickets innerhalb von drei Monaten abgearbeitet. Daran waren insgesamt sieben Menschen beteiligt. Wir haben unser Ziel, eine englische Version unserer Webseite herauszubringen und unser Repository umzustellen, erreicht. Wir haben nun auch schon die ersten Live-DVDs erstellt, das Testen in Communtu verstärkt und auch mit der Automatisierung von Tests begonnen. Mit Conny haben wir ein Maskottchen bekommen.

Am letzten Wochenende haben wir die neuen Ziele für die nächsten sieben Wochen (bis zu den Chemnitzer Linuxtagen) festgelegt. Bis dahin wollen wir unser Feature der Erstellung einer Live-DVD für alle verfügbar machen und, damit Communtu noch stabiler funktioniert, noch mehr Tests automatisiert durchführen. Wir wollen in Communtu Nutzerprofile und Gruppen einführen und noch einiges an der Usability verbessern.

Gern nehmen wir Kritik und Anregungen von Euch entgegen. Schreibt uns einfach per Formular, E-Mail oder im IRC auf freenode (#de-communtu).


Nachdem es nunmehr alle Spatzen von den Dächern pfeifen RadioTux goes Cebit und zwar wie es in der Pressemitteilung heißt als Medienpartner. Wir betreuen auf der Cebit die Bühne von univention und die Bühne des LPI. Heisst für uns eine Menge Arbeit nicht nur auf der Cebit selbst sondern auch vorher und vor allem auch nachher. RadioTux ist aber vor allem ein Radio mit viel Hörerbeteiligung, das gilt nicht nur für die Sendungen von der Cebit sondenr für alle Senungen und Livestreams. Tobias, der seit kurzem sich verstärkt um die Musikredaktion von RadioTux kümmern will, hat dafür schon einmal eine Aufruf zur Beteiligung gestartet. Und ich will an dieser Stelle auch nochmal zur Beteiligung aufrufen, ich suche aber nach interessanten Themen. Für die Bühne des LPI natürlich thematisches rund um Ausbildung. Aber ihr könnt auch gern andere interssante Themen anregen, auch wenn wir vielleicht nichts von davon für die Cebit verwenden können. Es gibt ja noch so einige Livestreams in diesem Jahr, so sind natürlich wieder der LinuxTag und die FrOSCon geplant. Also was interessiert euch, worüber wünscht ihr euch zu hören - nur her damit.

Heute war es mal wieder an der Zeit meinen Ubuntu-Server aufzuräumen. Ich habe mehrere alte Kernel mit aptitude ge’purge’d. Leider ist die Paketverwaltung beim Running postrm hook script /usr/sbin/update-grub hängen geblieben.

...
Entferne linux-image-2.6.31-16-generic ...
Running postrm hook script /usr/sbin/update-grub

Auch ein Beenden der Paketverwaltung und erneutes Ausführen brachte keinen Erfolg, update-grub sowie update-grub2 schwieg nach dem Ausführen… :cry:

Lösung: Ein simpler reboot des Systems hilft manchmal Wunder. :mrgreen:

Gestern hab ich ja darüber geschrieben wie der Weg von Bug zu Fix ist. Nun hab ich einen wichtigen Punkt vergessen: Du, ja genau Du, kannst den Entwicklern dabei nämlich helfen. Du brauchst dazu nicht mal programmieren zu können.

Ich hatte ja erwähnt, dass etwa 40 % aller Bugs die für KWin gemeldet werden, bereits gemeldet sind. D.h. ich gehe hin suche den korrekten und markiere ihn als Duplicate. Ein Beispiel aus der Beta 1: KWin crashed after a Konqueror crash Uns ist kurz vor Beta 1 eine Regression in den Code gekommen und wie man an meinem Commit (erster Kommentar) sieht, war es eine Trivialität. Dieser Crash hat uns durch die ganze Beta 1 verfolgt und er hat entsprechend viele Duplicates. Aber alle Duplicate Markierungen sind von Entwicklern gesetzt und das muss eigentlich nicht sein. Das könnten die Nutzer übernehmen. In so einem Fall ist es wirklich einfach: der Backtrace ist immer gleich und DrKonqui hängt die möglichen Duplikate sogar an (einfach auf einen der Duplikate klicken).

Ein anderer Fall sind normale Bugs – auch hier kann uns jeder Nutzer eigentlich helfen. Wenn ein Bug aufgemacht wird, steht er zuerst auf "UNCONFIRMED". Hier könnte nun ein Nutzer eigentlich schauen ob das überhaupt stimmt. Ist die Beschreibung korrekt, lässt sich der Bug reproduzieren, etc. Also den Bug soweit aufbereiten, dass der Entwickler damit etwas anfangen kann. Typischer Fall eines Bugs: KWin is slow – please improve. Toll hilft nichts. Hier müsste nachgefragt werden, welche Hardware er benutzt, welche Anwendungen, ob Compositing aktiviert ist, etc. Für mich als Entwickler ist so eine allgemeine Beschreibung natürlich wertlos und in der Zeit die ich nachfrage, könnte ich Entwicklungsarbeit leisten.

Und selbst bei Crashes kann der Nutzer sehr einfach mithelfen. Viele Crashes werden ohne die Debug Pakete installiert zu haben gepostet. Da können wir dann gar nichts machen. Hier gibt es die Möglichkeit nachzufragen oder wenn ein Weg angegeben ist, wie man KWin crashen lassen kann, einfach reproduzieren und einen guten Crash anhängen.

Dennoch muss ich nachfragen um meine Bugliste sauber zu halten. KWin hat aktuell etwa 360 offene Bugs. Wenn ich die Liste durchgehe und manuell Duplicates suche dann bekomme ich idR in einer Stunde 10 Bugs weg. Nicht gerade viel. Viele Bugs haben einen Kommentar wie "Is this still an issue in KDE SC 4.3.3?" und danach ein halbes Jahr keine Antwort mehr. In so einem Fall kann der Bug zugemacht werden – scheint niemanden zu interessieren und war entweder nie ein Bug oder ist behoben. Auch das ist etwas was Nutzer übernehmen können.

Wenn ein Bug überprüft ist, dann kann er von "UNCONFIRMED" auf "NEW" geändert werden. Dies könnte von den Entwicklern nun genutzt werden um zuverlässig nach Bugs zu suchen. Die unnützen Bugs erscheinen gar nicht und der Entwickler kann sich einen Bug schnappen und ihn beheben ohne großen Verwaltungsaufwand. Ja das wäre die ideale Welt :-)

Nun muss man natürlich nicht alleine als Nutzer plötzlich anfangen hier die Bugs zu durchforsten, sondern es gibt den KDE Bug Squad, der genau das macht. Regelmäßig veranstaltet die Gruppe Bug Days und aktuell gibt es auf forum.kde.org Bug Weeks. Der Bug Squad braucht übrigens immer Nachwuchs da viele Bug Jäger plötzlich abtrifften in die Entwicklung. So wurde die Überarbeitung von DrKonqui von einem Bug Squad Mitglied durchgeführt – Dario hatte einfach gesehen was nötig ist. Das Team beißt nicht und hilft immer weiter und Entwickler sind wirklich dankbar für die Arbeit. Also nichts wie los nach #kde-bugs.

Ach und natürlich braucht nicht nur KDE Nutzer, die bei Bugs helfen, sondern jedes Projekt.

=-=-=-=-=
Powered by Blogilo

Vor einigen Jahren führte ich eine Datenbank mit all den Büchern, die ich in unseren Büchergestellen zu Hause untergebracht habe. Die Inhalte habe ich damals im Internet veröffentlicht. Leider pflegte ich irgendwann diese Daten nicht mehr weiter und heute sind sie so veraltet, dass sie praktisch wertlos sind. Mindestens mit Büchern, die technischen Inhalt aufweisen oder sonst in das Linux-Umfeld passen, möchte ich gerne wieder eine Sammlung der Daten erstellen und diese zugänglich machen. Deswegen plante ich ein einfaches Datenbank-Design, damit ich diejenigen Daten mit den Relationen abbilden kann, die ich gerne aufzeigen und verbinden möchte. Natürlich will ich das gerne mit MySQL und PHP realisieren. Eine Alternative wäre für diese geringe Datenmenge SQLite.

Um solche Sachen zu entwickeln nutze ich in der ersten Phase gerne meinen Ubuntu-Server zu Hause, der von aussen nicht zu erreichen ist – mindestens bilde ich mir das ein. Dort habe ich per PHPMyAdmin die nötige Datenbank und die dazugehörigen Tabellen erstellt, die Rechte gerichtet und kontrolliert, ob alles in Ordnung ist.

Damit ist aber nur die halbe Arbeit – nebst dem Abfüllen der Daten – erledigt, denn die Relationen per SQL-Statement abzuholen, macht mir immer noch grosse Mühe. Ungefähr vor zwei Jahren habe ich hier beschrieben, wie ich diese Herausforderung unter Zuhilfenahme von Access aus dem Hause Microsoft und dem ODBC-Connector von MySQL löse. Dazu fahre ich ein virtuelles XP hoch und verbinde mich via ODBC-Connector unter Access mit dem MySQL-Server. Dort stehen dann grafische Elemente zur Verfügung, mit denen ich die Relationen zusammenklicken kann.

Wären da nur 1:n-Relationen zu lösen, brächte ich das noch halbwegs ohne diese Hilfe zustande. Aber bei meiner Herausforderung kann ja jedes Buch mehr als ein Autor haben. Jeder Autor könnte also theoretisch für jeden Titel geschrieben haben. Damit entsteht bei einer schlauen Normalisierung eine n:n-Verbindung zwischen den Tabellen Buch und Autor. Und eine n:n-Relation lässt sich ja bekanntlich nicht in einem Schritt auflösen, sondern muss über eine Zwischentabelle in zwei 1:n oder n:1-Relationen umgewandelt werden. Damit wird es für mein Gehirn schon etwas komplex. Und hier eilt mir in diesem Moment jene Lösung mit Access zu Hilfe. Dort klicke ich die Abfrage zusammen und exportiere dann die SQL-Anweisung.

Wahrscheinlich liesse sich das Ganze auch mit Mitteln aus der Linux-Welt lösen. OpenOffice Base und der ODBC-Connector stehen ja zur Verfügung; probiert habe ich es aber nicht.

Mich interessiert brennend, wie Ihr solche Sachen löst. Zum Beispiel Roland, der ja immerzu solche Datenbank-Dinger baut, hat sicherlich einen Ansatz bereit, um es anders und besser zu bewerkstelligen. Gibt es Frameworks, die SQL-Abfragen grafisch darstellen? Meine Herausforderung ist nicht das Verständnis der Abfrage an sich, sondern das abschliessende Wandeln in eine valide SQL-Anweisungen. Danke für die Hinweise und das Feedback!

Ähnliche Artikel

Mein Kubuntu läuft prima :-) Doch gestern war es dann soweit. Plötzlich waren alle Fensterleisten von KDE nur noch Matsch. Das ist natürlich unschön, also habe ich mal schnell nachgeschaut was man da machen kann. Die Lösung war die Tastenkombination Alt + Druck + K. Diese Tastenkombination wird dabei vom Kernel abgefangen und beendet alle Prozesse welche auf der aktuellen Konsole laufen. Danach startet der X Server wieder neu. Schöner wäre natürlich eine Lösung welche die aktuellen Anwendungen belässt und nur KDE mal "auffrischt" :-) Trotzdem ist diese Tastenkombination für weitere Notfälle vorgemerkt :-) Bei dieser Tastenkombination handelt es sich im übrigen um einen sogenannten "SysRequest key".

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/Notfall
http://wiki.ubuntuusers.de/Magic_SysRQ
http://de.wikipedia.org/wiki/Magische_S-Abf-Taste

12. Januar 2010

Ich habe ein Samsung Galaxy gekauft, da mir das Preis-Leistungs-Verhältnis stimmig zu sein schien und ich die Vorzüge von Open Source (Android!) nicht missen wollte.

Leider war mir nicht klar, dass Samsung offensichtlich nicht gewillt zu sein scheint, ein Upgrade auf die aktuelle Android-Version zur Verfügung zu stellen.

Das ist überaus unerfreulich.

Ich habe ein Gerät mit Open-Source-Software erworben, und bin nun scheinbar doch wieder von einem Hardware-Hersteller abhängig; den Vorschlag, Galaxy-Käufer sollten Samsung auffordern, doch noch ein Upgrade zu liefern, kann ich leider nur als naiv bezeichnen. Das Samsung Galaxy ist nun ein paar Monate auf dem Markt, und nach wie vor gibt es offiziell nur eine alte 1.5-Android-Version. Samsung hat mittlerweile also alle Kunden, die Interesse an Android 2.0 haben, vergrault, und ist noch nicht pleite gegangen. Warum sollte Samsung also auf einmal die Taktik ändern?

Insofern bleibt mir nur die Hoffnung, dass eines der inoffiziellen Projekte mit dem Ziel, Android 2.0 auf dem Samsung Galaxy zu realisieren, in naher Zukunft Erfolg hat. Nachfolgendes Video ist jedenfalls ein kleiner Hoffnungsschimmer:

Über weitere Informationen zu Android 2.0 (or greater) auf dem Galaxy wäre ich übrigens hocherfreut.


Auch wenn sie die “Königin” ist, habe ich sie in den letzten Monaten ziemlich vernachlässigt. Irgendwann 2009 habe ich mir wegen meines Spieltriebes mal die ZSH installiert und war nach einigen Anpassungen an den Konfigurationsdateien hin und weg. Man merkt einfach, dass viele Funktionen anderer Shells wie der BASH oder ksh aufgenommen und zum Teil stark verbessert wurden. Befehlsvervollständigung, Rechtschreibprüfung, eine geniale TAB-Vervollständigung, erweitertes Globbing, ladbare Module, erweiterte History usw. Man möge mir es mir verzeihen, aber ich finde die ZSH einfach nur geil. Die BASH ist auch nicht schlecht und reicht für die meisten sicherlich vollkommen aus (habe damit ja auch mehrere Jahre gearbeitet), aber die ZSH ist einfach besser. Punkt. Ende. Aus. ;-)

Da man leider nicht eine umfassende Quelle zu Thema ZSH findet, habe ich mir vor einiger Zeit das Buch “Zsh - die magische Shell”, welches nicht gerade dick ist, aber dennoch 25 Euro kostet, gekauft. Aufgrund von Zeitmangel und anderen Büchern, die ich vorher lesen wollte, verstaubt das Buch nun eingeschweißt im Regal. Durch einen Zufall bin ich heute auf diesen Blogeintrag gestoßen und ein paar nette “Themes” für den ZSH-Prompt gefunden.

Tja da war es wieder. Das ZSH-Fieber, wegen dem ich gerade wieder ein paar Änderungen an der .zshrc gemacht habe. Obwohl ich gerade ein anderes Buch lese, werde ich heute wohl als Bettlektüre mit oben genanntem Buch beginnen. Man muss auch Opfer bringen können.

Mal sehen, ob ich in den nächsten Tagen hier oder im Forum mal meine Konfigurationsdateien der ZSH veröffentliche. Sollte jemand den Drang verspüren, seine Konfigurationsdateien hier zur Schau zu stellen, dann los. So kann ich meine vermutlich noch verbessern. Perfekt ist sie ja noch lange nicht. Wer quasi die eierlegende Wollmilchsau unter den ZSH-Konfigurationsdateien haben will, kann sich mal unter http://grml.org/zsh/ umsehen. Besser geht es wahrscheinlich nicht. Das ganze ist mir aber zuviel des guten.

Mozilla ist nun auf den Geschmack gekommen: Es kommt schon wieder ein neuer Release. Nach Firefox 3.5 (Shiretoko) und Thunderbird 3 (Shredder) steht nun wieder eine neue Version des Browsers bereit: Firefox 3.6 (Namoroka). Der erste Releasekandidat ist schon erschienen.

Neuerungen gibt es wieder zuhauf: Die Benutzung bzw. Unterstützung für HTML 5 ist weiter ausgebaut worden. Jetzt können Webseitenbetreiber in ihren Videos, die mit <video> eingebunden werden, auch ein sog. Poster verwenden, ein Bild das vor- bzw. während des Ladens des Videos erscheint.
Andere Webstandards wie DOM oder CSS werden ebenfalls umfangreicher verarbeitet.

Was auch noch erwähnenswert ist: mit Firefox 3.6 setzt Mozilla einen größeren Fokus auf die Personas-Technologie. Skins lassen sich damit ohne Neustart des Browsers wechseln, ähnlich wie bei Chromium.

Eventuell schafft es Namoroka auch noch in Lucid Lynx.

Artikel teilen: Digg del.icio.us Facebook Google Bookmarks Identi.ca Reddit Slashdot Twitter Yahoo! Buzz Yigg MisterWong.DE

Erstmal sei gesagt, dass es sich bei 2.7 um eine Entwicklungsversion handelt, die nicht auf Produktivsystemen genutzt werden sollte. Sie ist noch instabil und einige Funktionen könnten vorübergehend nicht funktionieren, da es sich um eine Zwischenversion zu GIMP 2.8, der nächsten geplanten stabilen Version handelt. Die aktuelle stabile Version ist GIMP 2.6.

Hier die Befehle im Detail (als normaler Benutzer):

cd ~
mkdir -p tmp
cd tmp

# Wichtig! Diese Variablen müssen gesetzt werden und
# sind für alle weiteren Befehle notwendig. Wenn die Konsole
# dazwischen geschlossen wird, müssen die 3 exports
# erneut durchgeführt werden!

export PATH=$PATH:/opt/gimp-2.7/bin
export PKG_CONFIG_PATH=/opt/gimp-2.7/lib/pkgconfig
export LD_LIBRARY_PATH=/opt/gimp-2.7/lib

Holen der wichtigsten Pakete

sudo apt-get build-dep gimp

Zusätzliche Pakete

sudo aptitude install checkinstall git-core libtool libopenexr-dev libopenraw-dev libspiro-dev

BEGINN: DIESER BLOCK IST NUR FÜR UBUNTU 9.04 NOTWENDIG\\
Glib (benötigt für Gtk) holen, kompilieren, installieren

wget http://ftp.gnome.org/pub/gnome/sources/glib/2.22/glib-2.22.2.tar.bz2
tar -xjf glib-2.22.2.tar.bz2
cd glib-2.22.2
./configure --prefix=/opt/gimp-2.7
make -j3
sudo make install -j3
cd ..

Gtk holen, kompilieren, installieren

wget http://ftp.gnome.org/pub/gnome/sources/gtk+/2.18/gtk+-2.18.2.tar.bz2
tar -xjf gtk+-2.18.2.tar.bz2
cd gtk+-2.18.2
./configure --prefix=/opt/gimp-2.7
make -j3
sudo make install -j3
cd ..

ENDE: DIESER BLOCK IST NUR FÜR UBUNTU 9.04 NOTWENDIG

BABL holen, kompilieren, installieren

git clone --depth 1 git://git.gnome.org/babl
cd babl
./autogen.sh --prefix=/opt/gimp-2.7
make -j3
sudo make install -j3
cd ..

GEGL holen, kompilieren, installieren

git clone --depth 1 git://git.gnome.org/gegl
cd gegl
./autogen.sh --prefix=/opt/gimp-2.7 --disable-gtk-doc
make -j3
sudo make install -j3
cd ..

GIMP holen, kompilieren, installieren

git clone --depth 1 git://git.gnome.org/gimp
cd gimp
./autogen.sh --prefix=/opt/gimp-2.7 --disable-gtk-doc
make -j3
sudo make install -j3
cd ..

Aufruf mit:

/opt/gimp-2.7/bin/gimp-2.7

Hinweis: Damit Gimp 2.7 Systemweit aufgerufen werden kann, wird ein Softlink nach /usr/local/bin gesetzt.

sudo ln -s /opt/gimp-2.7/bin/gimp-2.7 /usr/local/bin

Angesichts der aktuellen Vorbereitung auf das Release der KDE Software Compilation in Version 4.4 hab ich gedacht ich beschreibe mal die Schritte, die ich gehen muss um einen gemeldeten Bug in KWin zu beheben. Denke das könnte ganz interessant sein, vor allem wenn man nicht so vertraut mit der Entwicklung ist ;-)

Am Anfang steht der Bugreport. Im IRC channel #kwin gibt es einen kleinen bot, der neue Bug reports meldet. Da ich auch ein highlight auf das Wort "kwin" habe und dieses zufälligerweise in jeder Bug Meldung enthalten ist, erhalte ich eine schöne Benachrichtigung. Im Channel ist dann auch gleich die URL zum draufklicken enthalten. Wenn ich nicht am Rechner sitze, dann bekomme ich neue Bugs trotzdem mit: alle Bugzilla Mails werden auch an die kwin Mailingliste gesendet und zusätzlich hab ich in Akregator einen RSS feeds für neue Bugs (eigentlich überflüssig).

Ein Bug fällt in eine von drei Kategorien:

  • Wishlist
  • Bug
  • Crash

Wishlist ist ein Wunsch und so etwas wird idR erst einmal ignoriert. Gerade in der Zeit, in der man sich auf das Beheben von Bugs konzentriert, dürfen neue Wünsche eh nicht implementiert werden. Viele der Wünsche sind auch einfach nun ja Traumkonzert und lassen sich zwischen schwer bis gar nicht umsetzen.

Ein Bug ist ein Fehlvehalten der Anwendung. Im Falle von KWin beziehen sich die Meisten auf irgendwelche Probleme mit den Desktop Effekten. Viele der Meldungen sind sehr ungenau und nur unter bestimmten Fällen zu reproduzieren. Für einen Bug gilt eigentlich, dass er nicht besonders priorisiert ist. Außer es ist wirklich ein gravierender Bug.

Crash ist nun eine Sonderform eines Bugs: die Anwendung hat einen Nullpointer dereferenziert und ist abgestürzt. Bei KWin nicht so schlimm, da es sich automatisch neustartet, aber trotzdem unangenehm. Zum Glück sind mittlerweile die Anzahl der Crashes zurückgegangen, so dass im Normalfall keiner auftritt.

Bei allen drei Arten gilt, dass wir zuerst überprüfen müssen, ob der Bug schon existiert. In etwa 40 % der Fälle ist das so. Bei Crashreports ist das am Einfachsten: DrKonqui findet die automatisch und hängt die Nummer des Duplikats gleich dran. Leider reporten die User häufig trotzdem. In so einem Fall ist der Bug schnell weg: Nummer rein, und abschicken. Ansonsten wird die Suchmaschine im Hirn eingeschaltet und überlegt, ob man so einen Crash nicht schon mal gelesen hatte und wenn ja dann wird geschickt über die Suche von Bugzilla den passenden gefunden.

Natürlich ist es hilfreich den Bug reproduzieren zu können. Leider ist das nicht immer möglich, weil ganz bestimmte Bedingungen vorliegen müssen. Hatte aktuell so einen Fall, dass es nur crashed, wenn man Present Windows als Alt+Tab Effekt verwendet, während er aktiviert ist die Anzahl der Fenster auf 0 geht und man dann im richtigen Augenblick mit der Maus klickt. In dem Fall war dann zum Glück der Quellcode eindeutig und konnte sehr leicht auch ohne Reproduzierung behoben werden ;-)

Die Crash Reports enthalten einen automatisch generierten Stacktrace, der Aufschluss darüber gibt an welcher Stelle im Code der Crash auftrat. Dabei werden die Code Zeilen sogar genannt und manchmal sogar die Werte übergebener Variablen. Für die Datenschutzfanatiker: nein daraus lassen sich keine privaten Daten rückverfolgen. Im Falle von KWin ist das maximal, dass man erfährt auf welchen Desktop der User gerade wechselte. Komplizierte Daten werden als Zeiger auf eine Datenstruktur übergeben – aus der Adresse kann man nichts rauslesen außer, dass sie vllt. 0 war. Ist der Bug gegen KDE SC 4.3 reportet worden so stimmen sehr häufig die Zeilennummern nicht mehr. Hier ist es dann hilfreich, wenn man den Crash selbst reproduzieren kann, weil man dann die passenden Zeilennummern erhält.

Mit der Zeilennummer bewaffnet, geht es dann in die Entwicklungsumgebung und man schaut sich den Quellcode an. In den meisten Fällen macht es schlicht und ergreifend "Aha" und der Crash ist offensichtlich. Nun die berechtigte Frage: Warum trat er dann auf? Nehmen wir das Beispiel von oben mit Present Windows: es wurde nicht daran gedacht, dass es vorkommen kann, dass man mit der Maus klickt, wenn kein Fenster da ist. Der Code ist ja gedacht ein Fenster auszuwählen. Ja eine falsche Annahme. Über den Stacktrace und den übergebenen Werten ist dann erkennbar welcher Zeiger auf 0 zeigt und man kann den Code anpassen, so dass dieser Fall entweder nicht mehr auftritt oder abgefangen wird.

Der nächste Schritt ist das neubauen von KWin (zum Glück direkt aus der IDE) und testen ob der Crash behoben ist. Wenn dem so ist, dann kann der veränderte Code in das Quellcodeverwaltungssystem eingespielt werden. KDE verwendet eigentlich SVN, was aber für mich eher unpraktisch ist, deswegen nutze ich selbst git und habe einen über git-svn verwalteten Checkout von kwin. Zuerst überprüfe ich die veränderten Code Zeilen mittels git diff – das zeigt mir in der Konsole an, was sich genau verändert hat. Eine wichtige Überprüfung um nicht irgendwelchen Müll durch das Testen (debug Ausgaben u.ä.) ausversehen einzuspielen. Auch eine gute Überprüfung ob der Coding Style eingehalten wurde. Der nächste Schritt ist die Änderung mittels git add und/oder git commit (-a) als lokalen Commit einzuspielen. Hierbei gibt man eine aussagekräftige Commit Message ein und trägt mittels BUG: NUMMER den Bug ein, welcher dadurch behoben wird. Nun muss der Code mittels git svn dcommit in das KDE SVN übertragen werden. Dabei wird dank dem BUG Schlüsselwort der zugehörige Bugreport automatisch geschlossen und ein Kommentar eingefügt.

Die Änderung wurde nun aber nur in trunk eingespielt – dem Hauptentwicklungszweig und das was in mehr als einem halben Jahr mal KDE SC 4.5 werden soll. Natürlich möchte ich den Bug auch in 4.4 behoben haben und dazu muss der Patch in den branch zurückportiert werden. Würde ich nicht git verwenden, wäre das richtig einfach, denn es gibt ein Skript dafür. Würde KDE git verwenden wäre es noch einfacher. Für mich bedeutet es manuelle Arbeit. Also mittels git show den letzten Commit in eine temporäre Datei speichern und in mein Verzeichnis wechseln, in dem der 4.4 Code rumliegt. Hier kann ich mit patch -i die Änderungen lokal einspielen. Bei 4.4 geht das noch ohne irgendwelches meckern, da es im Prinzip noch der identische Code ist. Nun müsste ich eigentlich die Änderung einspielen, hab aber mein Konsolen SVN Wissen dank git verlernt und nutze nun Dolphins SVN Integration. Dolphin öffnen, an die passende Stelle navigieren, über das Kontextmenü noch mal den Diff anzeigen lassen (lieber einmal zu viel kontrolliert, als einmal zu wenig) und die Datei committen. Als Commit Message wird die gleiche Meldung wie zuvor in git verwendet, jedoch mit dem Zusatz "Backport rev SVN-Nummer" und CCBUG anstatt BUG. Dadurch wird einfach nur eine Meldung an den Bug angehängt. Und da wir ja fleißig sind, machen wir das ganze für 4.3 auch noch mal sofern der Code passt.

So wie lange dauert so etwas? Beispiel von gestern abend: Um 20:54 Uhr hat mir ein User im IRC einen Crash gemeldet, er klang komisch und ich hab sofort ausprobiert und ihn reproduzieren können. Kdevelop war bereits mit der passenden Datei geöffnet (ist eigentlich immer offen) und ich konnte direkt an die Quellcodezeile springen. Um 21:06 konnte ich dem User melden, dass der Crash in trunk und branch behoben ist. Für den Backport in einen Branch brauche ich etwa 2 min – insgesamt alse 4 (IRC Log von CIA Bot). Zum Reproduzieren, Crashen und Testen, dass es wirklich behoben ist also gerade mal vier bis fünf Minuten. Ja der war wirklich einfach ;-) Heute saß ich an einem, bei dem ich nach etwa einer Stunde erst mal aufgehört habe, weil ich ihn nicht beheben konnte. Wird aber definitiv in 4.4 (notfalls über Würgaround) behoben sein.

=-=-=-=-=
Powered by Blogilo

Bei Dirk las ich von seiner neuen USB-Festplatte, welche er als Backup-Medium unter dem Dateisystem XFS einsetzt. XFS ist wohl das einzige Dateisystem, bei dem eine Datei gleich gross sein darf, wie die maximale Grösse einen Datenträgers. Ausserdem bietet es eine ganze Menge Vorteile (beispielsweise lässt es sich im eingehängten Zustand vergrössern), liegt unter GPL und ab dem Linux-Kernel 2.4 ist es praktisch überall einsetzbar. Da ich seit einigen Monaten ebenfalls eine USB-Festplatte mit einer “verkaufstechnischen” Grösse (Die Jungs der grossen Hardware-Distributoren rechnen dezimal bei der Grössenbezeichnung.) von einem TB nutze, wollte ich gerne testen, ob auch ich XFS zum Rennen kriege.

Unter Ubuntu steht XFS von Haus aus zur Verfügung. Allerdings sind standardmässig noch nicht alle Tools installiert. Das ist aber schnell nachgeholt. Zwar sind die nicht unbedingt nötig, aber gewisse Aufgaben lassen sich nur damit ausführen. Achtung: Das Paket xfs ist etwas ganz anderes und muss für das Dateisystem FXS nicht installiert werden. Für XFS gibt es die beiden Programme xfsprogs und xfsdump.

sudo apt-get install xfsprogs xfsdump

Mit xfsprogs können Reparatur- und Verwaltungsaufgaben durchgeführt werden, xfsdump bietet Unterstützung für Sicherungen, Wiederherstellung und Optimierung. Ein Datenträger unter Ubuntu lässt sich mit GPardet GParted auf XFS formatieren. Dabei gehen die bestehenden Daten auf dem zu formatierenden Datenträger verloren. Das ist eigentlich klar, aber besser, es wird noch einmal darauf hingewiesen.

Danach steht das Laufwerk zur Verfügung und kann sogleich eingehängt und benutzt werden. Wer daran interessiert ist, kann sich das Logfile dazu ansehen. Es kann als HTML-Datei abgelegt werden. Falls Verschlüsselung ein Thema ist, so sollte sie gleich zu Beginn eingesetzt werden, sonst muss man noch einmal von vorne anfangen. Ich setze hier keine Verschlüsselung ein. Soweit ich gesehen habe, ist es nicht ohne weiteres möglich, XFS-Partitionen zu verschlüsseln. Auf Datei-Ebene geht es aber allemal, zum Beispiel mit GnuPG.

USB-Laufwerke werden unter Ubuntu automatisch eingehängt und unter /media/DatenträgerName gemountet. Bei mir musste ich auf dem Datenträger noch Rechte vergeben, damit ich darauf schreiben konnte. Danach konnte ich meine Backups darauf schreiben. Sicherungen sind ja wichtig, aber verheissungsvoller sind Wiederherstellungen. Deswegen schreibe ich meine Daten immer 1:1 auf den Datenträger und behalte jeweils zwei alte Versionen. Der Rest wird gelöscht. Daten, die auf der Quelle gelöscht werden sollen, kommen auf der USB-Festplatte in den Ordner Archiv. Zusätzlich nutze ich noch Unison, um meine Daten mit dem lokalen Server zu synchronisieren. Ganz gute Programme sind sbackup oder Back in Time, um das Ganze zu automatisieren und gleichzeitig ein GUI für das Einrichten der Sicherung zu haben.

Der Datenträger läuft ganz ordentlich unter XFS. Probleme könnten auftauchen, wenn der Datenträger zwischen einem 32- und 64bit-System aus angehängt und Daten darauf geschrieben würden. Ich konnte allerdings keine Probleme erkennen. Ich lese und schreibe ab meinem ThinkPad R61 mit Ubuntu Karmic Koala 64bit und auch mit dem EEEPC 1000H und Ubuntu Karmic Koala 32bit. Funktioniert tadellos. Ein Dankeschön geht an Dirk für den Hinweis auf XFS.

Ähnliche Artikel

Wie bereits bei Ubuntux bekanntgegeben wurde, ist Ubuntu Tweak am 10.Januar in Version 0.5.0 erschienen. Interessanterweise wurden bei der Version, welche über den Update-Manager bezogen werden kann, einige der bisherigen Übersetzungen nicht übernommen und so findet man beispielsweise plötzlich wieder einen Eintrag mit dem Namen ‘Security Related’ im Menü. In der Info des Programms wird auch nur ein einziger Übersetzerangegeben, wobei allerdings so einige Leute daran beteiligt waren, die Texte einzudeutschen (Auch ich, habe Übersetzungen hinzugefügt!).

Die neue Oberfläche macht sich erstmal nicht schlecht, und auch meiner Anfrage, ob es möglich wäre die Option zum deaktivieren der Benutzerliste (Login im Stile der vorherigen Ubuntu-Releases) zu integrieren wurde nachgegangen:

Ubuntu-Tweak

Ob die Übersetzungen einen aktuelleren Stand haben, wenn man sich das Programm von der Website lädt, habe ich jetzt nicht nachgesehen, aber ich denke es wurde da einfach was durcheinander gebracht beim “Umbau” auf die neue Oberfläche. Wer bei der Entwicklung oder Übersetzung der Anwendung helfen möchte, oder gute Ideen für neue Features einbringen kann, möge sich hier bei Launchpad.net melden. Ebenso können dort natürlich auch Fehler gemeldet werden.

Das ändern des Hostnamens, des eigenen Rechners sollte nun übrigens auch klappen ;)

Ähnliche Posts:

  1. Problem mit Ubuntu Tweak und Splashy
  2. Ubuntu mit LXDE und XDM

Vor einer Woche habe ich eine Blogparade rund um exotische Linuxdistributionen, die nicht jeder kennt gestartet. Zeit also eine kurze Zwischenbilanz zu ziehen. Ich bin absolut überrascht wieviel Resonanz, diese Aktion hervorgerufen hat. Innerhalb von nur einer Stunde war die erste Distribution vergeben.
Nach nunmehr einer Woche sind von den 20 vorgegebenen Linux-Distributionen nur noch 7 übrig. Ausgerechnet die Distribution, wo ich dachte die wird überhaupt nicht vergeben, da kambodschanische MoonOS war eine der ersten Distributionen, welche vergeben waren. Neben den erfreulichen Dingen gibt es allerdings auch kritische Stimmen, die der Meinung sind, die Distributionen exisieren nicht mehr und vor allem sind zu schwer, da nur Beschreibungen in anderen Sprachen vorliegen.
Das ist richtig, einige der Distributionen exisstieren wirklich nicht mehr bzw. wurden seit ewigen Zeiten nicht mehr aktualisiert.Das tut der Sache allerdings keinen Abbruch auch nicht wenn es keine deutsch oder englischsprachigen Dokumentationen gibt. Denn schliesslich handelt es sich ja um exotische Distributionen und nirgendwo ist eigentlich verständlih, dass es eine leichte Aufgabe sein soll. Denn irgendwo etwas abtippen kann am Ende jeder.
Nicht einmal 2 Tage später gab es dann auch die erste Vorstellung einer exotischen Linux-Distribution.

ajp von ajp.blogsport.de hat Trustix Secure Linux vorgestellt. Dabei handelt es sich um eine nicht mehr weiter entwickelte Linux-Distribution der Firma Trustix aus Norwegen, die die Grundlage für eine Firewall bildete. Diese Firewall wird allerdings nach wie vor weiterentwickelt. Mehr zu Trustix gibts im entsprechendem Artikel.

Den zweiten Artikel in der Blogparade rund um die exotischen Linux-Distributionen hat Roman verfaßt. er hat sich das brasilianische BRLinux unter den zur Auswahl stehenden Distributionen ausgesucht. Er hat versucht die mittlerweile im Stillstand befindliche Distribution zu testen und hatte damit einige Probleme. BRLinux wird auf Grund der doch in Brasilien beheimateten Minderheit auch auf Deutsch angeboten, Roman hat allerdings nicht nur Übersetzungsfehler gefunden sondern auch Schwierigkeiten mit der Installation gehabt. Am Ende hat er eine Liveversion von BRLinux getestet. Die Ergebnisse seiner Recherchen kann man in seinem Blogartikel nachlesen.

Gestern Abend erschien dann auch der nächste Artikel zur Blogparade. Dieses mal war Absolute Linux die gewählte Linux-Distribution und onli-blogging hat sich ans Werk gemacht. Absolute Linux ist eine auf dem Klassiker Slackware basierende Minimaldistribution mit IceWM als Windowmanager. Mehr zu Absolute Linux, findet sich bei onli-blogging im entsprechenden Artikel dazu.

Vollkommen gespannt bin ich schon auf den Beitrag über Jolicloud für den Ubuntux ein Interview mit Sascha Pallenberg führen wird. Ich hoffe er zeichnet es auf, so das wir es für Radio Tux verwenden können. Das gilt übrigens für alle Teilnehmer, ihr könnt (müßt) auch eine kurze Audioversion abliefern. Falls ihr Hilfe dabei braucht ist das kein Problem.

Da die Aktion allerdings noch bis Ende März laufen soll und nicht mehr wirklich viele exotische Distributionen übrig sind und diese den Kritiken zu Folge zu schwer sind, denke ich wir können nochmal 10 Distributionen vorstellen. Dafür habe ich wieder 10 verschiedene Distributionen ausgewählt.

Das sind also die nächsten exotischen Linux-Distributionen, die ihr wenn ihr woll vorstellen könnt. Es sind im einzelnen ArtistX, Bee Linux, trixbox, die Incognito LiveCD, Pioneer Linux, Xange, TinyMe, Karoshi Linux, Masonux und Toorox. Diese Mal habe ich versucht nur aktive Distributionen auszuwählen und das Feld der Distributionen von der diese abgeleitet wurden ist genauso bunt, wie beim letzten Mal. Es findet sich Debian, fedora, Mandriva, ubuntu oder Gentoo. Nur openSUSE bleibt aussen vor, es gibt kaum Derivate davon. Also, wenn ihr an der Blogparade teilnehmen wollt und euch die bisherigen zu schwer waren, pickt euch eine von diesen.