ubuntuusers.de

12. Mai 2012

Ubuntu Logo 150x150Auf der UDS-Q (Ubuntu Developer Summit) wird darüber diskutiert, ob man eine weitere Geschmacksrichtung ausgeben soll. Anscheinend ist die Nachfrage zu einer GNOME-Version der Distribution nicht außer acht zu lassen. Zumindest wurde ein Diskussions-Eintrag mit dem Titel “Discuss what demand there is to make a GNOME flavor of Ubuntu, what it would contain and if it would have patches over upstream GNOME and what work needs to be done to make it happen.” registriert.

Also auf Deutsch heisst das: Die Entwickler unterhalten sich darüber, was geschehen müsse, um eine GNOME-Version von Ubuntu auf den Markt zu bringen und ob Patches gegenüber den herkömmlichen GNOME-Paketen einfließen.

Ubuntu mit GNOME-Geschmacksrichtung?

Ubuntu mit GNOME-Geschmacksrichtung?

Die Frage ist, ob Canonical eine weitere Baustelle öffnen will, wo man mit “keine Kubuntu-Unterstützung mehr” gerade erst eine große geschlossen hat. Ebenso will man in Quantal Quetzal künftig auf Unity 2D verzichten und für die Standard-Ausgabe von Ubuntu wollen die Entwickler ein eigenes Kontrollzentrum und haben daher das von GNOME geforkt.

In einer anderen Sitzung wurde bereits der Fahrplan für Upstart festgelegt. Unter anderem stehen interaktives Starten und Cron-Ersatz auf dieser Liste. Während andere Distributionen auf systemd statt Upstart setzen, scheint sich Canonical hier nicht wegbewegen zu wollen. Ob das daran liegt, dass systemd vom selben Entwickler (Lennart Poettering) ist, der auch PulseAudio (gerade als Version 2.0 erschienen) geschrieben hat, ist reine Spekulation. Ich hatte nur in diversen Foren schon gelesen, dass er nicht nur Fans hat, auch wenn seine Gegner ihm ausgezeichnete Entwicklerqualitäten zusprechen.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

11. Mai 2012

NAS Geräte für das heimische Netzwerk gibt es mittlerweile genügend auf dem Markt. Natürlich haben Sie mehrere Vorteile wie der geringe Stromverbrauch, die einfache Konfiguration, Sie sind klein und leise, es lassen sich durch Plugins / Module Funktionen nachrüsten (Apache,Mysql) und die Daten werden auf den Festplatten redundant gespeichert. Meine größte Sorge bei den Geräten ist immer, was ist wenn nicht eine Festplatte des Raidsets ausfällt sondern die Hardware des NAS selber?

Letztens war es nun soweit, die Hardware eines IOMAGANAS x2 lief nicht mehr und ich konnte ausprobieren ob man noch an die Daten rankommen konnte.

Die Festplatten waren bereits durch einen Kollegen an einem Rechner angeschlossen auf dem das aktuelle debian installiert war.
Als erstes habe ich mit apt-get install lvm2 mdadm lvm und mdadm installiert.

Im Anschluss habe ich mit mdadm --assemble --scan versucht das Raidset wieder zu bilden. Merkwürdigerweise wurde nicht ein Raidset gefunden, sondern zwei Raid 1 mit jeweils einer Festplatte. Eines der Raidsets konnte ich nun mounten, und mit ls -l habe ich folgendes erhalten.

drwxr-xr-x 2 root root 4096 25. Apr 10:14 imaging_dir
drwx—— 2 root root 16384 25. Apr 10:14 lost+found

Leider waren in dem Verzeichniss keine Daten, also erstmal die Raidsets wieder gestoppt.
Über fdisk /dev/sdb habe ich mit die Partitionierung der Festplatte näher angeschaut

Device Boot Start End Blocks Id System
/dev/sdb1 1 127 1020127 83 Linux
/dev/sdb2 128 121602 975742455+ 83 Linux

Die sdb2 Partition schien die Richtige zu sein und mit mdadm --assemble /dev/md128 /dev/sdb2 konnte ich das Raidset mit nur einer Festplatte wieder herstellen. Als ich jedoch versuchte das Raidset zu mounten bekam ich folgenden Fehler

mount: unknown filesystem type ‘LVM2_member’

Da es sich also um ein Logical Volume handelte, bekam ich über lvdisplay weitere Informationen

— Logical volume —
LV Name /dev/md1_vg/md1vol1
VG Name md1_vg
LV UUID zfidzG-H1vi-uI9A-Ooob-vfuY-amo5-iBV0C9
LV Write Access read/write
LV Status NOT available
LV Size 930,54 GiB
Current LE 476436
Segments 1
Allocation inherit
Read ahead sectors auto

Dann mußte das Logical Volume noch Active gesetzt werden

Ausgabe von lvscan
inactive ‘/dev/md1_vg/md1vol1′ [930,54 GiB] inherit

vgchange -ay

Ausgabe von lvscan
ACTIVE ‘/dev/md1_vg/md1vol1′ [930,54 GiB] inherit

Nun ließ sich das Logical Volume mounten und unter /samba/shares lagen die Dateien.

Auch dieses Jahr gibt es wieder die Möglichkeit von mir ein Wochenticket für den LinuxTag zu bekommen und wie in den vergangenen Jahren auch, dafür einfach eine Mail schreiben oder hier einen Kommentar hinterlassen. Keine Angst es sind schon ein paar da ;)

Ich habe schon vor einer Weile davon phantasiert, dass in naher Zukunft Menschen vermehrt und legal Dateien untereinander austauschen dürften. Also nicht so wie jetzt mit dem ganzen Internet, sondern Freunde untereinander. Damals fand ich aber kaum geeignete Programme, die sowas unterstützen würden.

Jetzt zeigte ein Freund mir RetroShare.

Vom Konzept her ist das die ideale Tauschbörsensoftware. Ein P2P-Programm, bei dem man sich nur zu seinen Freunden verbindet, daher niemand sonst die eigene IP sieht und daher einen auch nicht abmahnen kann. Dazu die Suche bei Freunden von Freunden, wodurch mit wenigen Sprüngen die ganze Welt verbunden sein kann (vorausgesetzt, ausreichend viele nutzen dieses Programm). So können auch Dateien gefunden werden, die keiner der eigenen Freunde hat, und trotzdem sehen nur diese die eigene IP.

Das Programm selbst hat Schwächen: Die Oberfläche ist weder besonders ansehnlich noch wohldurchdacht, gerade weil der Fokus auf den Dateientausch etwas versteckt wird. Auch das Hinzufügen von Freunden - über deren Zertifikat - könnte einfacher sein. Trotzdem bleibt es ein geniales Konzept.

lrg tango drive hard disk badblocks: Festplatten auf defekte Sektoren prüfenWir leben in Zeiten, in denen die Qualität von Festplatten schwer nachgelassen hat. Die Hersteller versuchen die Kapazitäten zwanghaft zu erhöhen was unvermeidlich zu ECC-Errors führt. Aber auch in der Anfälligkeit gegen tote Sektoren haben moderne Festplatten stark zugenommen. So ist es nicht verwunderlich, dass ich einem meiner PCs immer noch eine alte IDE Spinpoint F1 von Samsung werkelt aber ich bereits 3 defekte Festplatten in nur 2 Jahren in meinem NAS hatte. Eben wegen der genannten toten Sektoren.

Solche toten Sektoren sind einfach Blöcke auf der Oberfläche einer Festplatte, die sich wegen physischer Beschädigung nicht mehr beschreiben lassen. Ein auftreten solcher Beschädigungen kann für ein RAID beispielsweise das Todesurteil bedeuten.

Aber wie kann man sicher gehen, dass eine Festplatte wirklich voll Funktionsfähig ist?

Zum einem gibt es da SMART, welches verschiedene schnelle Prüfungen an der Festplatte vornimmt aber laut Studien nicht wirklich aussagekräftig ist um den Ausfall von Geräten vorauszusagen.

Wenn man wirklich 100% sicher gehen möchte muss man Block für Block überprüfen ohne einen einzigen auszulassen.

Hierfür bediene ich mich ‘badblocks’ – Badblocks kann sowohl destruktiv prüfen (also so das alle Daten auf einer Festplatte verloren gehen) oder eben nicht. Der Vorteil beim destruktiven Modus liegt vor allem darin, dass die Prüfung etwa zehnmal schneller vonstatten geht als im nicht-destruktiven Modus. Zudem lässt sich die Ausgabe von Badblocks in fsck einleiten, damit dieses die Blöcke auf dem Dateisystem als fehlerhaft markiert und somit ein weiteres Beschreiben verhindert.

Destruktiver Modus

Achtung noch einmal als WARNUNG: In diesem Modus werden alle Daten von der Festplatte gelöscht.

badblocks -wsv -o foo.badblocks /dev/sdX

  • Diese Zeile löst eine Überprüfung für /dev/sdX aus.
  • -w ist der destruktive Modus.
  • -s zeigt einen prozentualen Fortschritt an (z.B: 12.16% erledigt, 35:46 verstrichen).
  • -v ist wie fast immer ‘verbose’ wodurch die gefunden fehlerhaften Sektoren auf stdin ausgegeben werden.
  • -o gibt den Pfad für die Ausgabedatei an (hier foo.badblock). Diese bräuchten wir um sie mit fsck einzulesen.

Da hier alle Daten von der Festplatte gelöscht werden eignet sich dieser Modus besonders von das überprüfen von neuen Festplatten oder auch solchen, die man sowieso formatieren möchte.

Nicht-Destruktiver Modus

Dieser Modus ist vollkommen unbedenklich und es werden keine Daten von der Festplatte gelöscht.

badblocks -nsv -o foo.badblocks /dev/sdX

  • Diese Zeile löst eine Überprüfung für /dev/sdX aus.
  • -n ist der nicht destruktive Modus.
  • -s zeigt einen prozentualen Fortschritt an (z.B: 12.16% erledigt, 35:46 verstrichen).
  • -v ist wie fast immer ‘verbose’ wodurch die gefunden fehlerhaften Sektoren auf stdin ausgegeben werden.
  • -o gibt den Pfad für die Ausgabedatei an (hier foo.badblock). Diese bräuchten wir um sie mit fsck einzulesen.

Dieser Modus eignet sich, wenn man den verdacht auf fehlerhafte Blöcke hat (z.B weil S.M.A.R.T das gemeldet hat). Die gefunden Leichen kann man dann mit fsck einlesen und man erhält wieder ein voll konsistentes Gerät. Aber Vorsicht: Defekten Sektoren breiten sich meistens aus wie eine Seuche.

Wenn die Überprüfung abgeschlossen ist hat man entweder eine Ausgabe in foo.badblock oder besser noch gar keine. Sollte man doch defekte Sektoren gefunden haben können diese mit

fsck -l foo.badblocks /dev/sdX

eingelesen werden. Somit kann man sich sicher sein, dass man entweder keine Leichen auf der Festplatte hat oder diesen erfolgreich ausmerzen konnte.

Für diese Prozedur sollte man aber etwas Zeit mitbringen. Der schnellere Destruktive Modus dauerte bei meinen Recherchen bei 2TB etwas 48 Stunden.

Ubuntu Logo 150x150Wie Phoronix berichtet wurde das Dateisystem Btrfs auf der UDS-Q (Ubuntu Developer Summit) wieder diskutiert und wie es in Quantal Quetzal eingesetzt wird.

Es wurde wohl entschieden, dass ext4 das Standard-Dateisystem für Ubuntu 12.10 bleiben wird. Optional steht Btrfs ja schon länger für Ubuntu-Installationen zur Verfügung. Allerdings trauen die Entwickler dem Dateisystem noch nicht ganz, beziehungsweise wird dem Reparier-Tool nicht viel Vertrauen entgegengebracht.

Auch bei Fedora verhält sich ein Umstieg auf Btrfs zögerlich, könnte aber mit dem für November geplanten Fedora 18 kommen. Es würde mich auch nicht wundern, wenn hier Red Hat wieder einmal Vorreiter ist und die anderen dann mit Argusaugen beobachten, was passiert. Somit zögert sich “Btrfs als Standard” noch mindestens bis Ubuntu 13.04 hinaus.

Wer ein Ubuntu “Single Sign On”-Konto besitzt, findet darüber weitere Details zur Diskussion hier.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Shadowrun Returns Teaser 150x150Ich habe kurz vor Schluss doch noch zugeschlagen und Shadowrun Returns mitunterstützt. Als angekündigt wurde, dass es keine Linux-Version gab, war das Spiel erst einmal vom Tisch für mich. Dann haben die Entwickler wegen doch einiger Proteste umgeschwenkt und es wird doch eine Linux-Version geben. Diese wird aber erst später erscheinen. Das ist zwar ärgerlich, aber nachdem auch eine Android-Ausgabe erscheinen soll, hab ich trotzdem zugeschlagen.

Ebenso hat es das Versprechen einer zweiten Stadt gegeben, sollte genug Geld zusammenkommen – über 1,8 Millionen US-Dollar ermöglichen das. Der erste Stadt und die Heimat des Shadowrun-Universums ist Seattle. Bis 15.05.2012 12 Uhr Mittags (PST, was bei uns 21 Uhr sein dürfte) wird die Untersuchung abgeschlossen, welche zweite Stadt entwickelt werden soll.

Zur Auswahl gehört auch Berlin. Allein wegen seiner Historie und den vielen Kriegen sei die Stadt sehr interessant. Auch die EuroWars haben der Stadt einen Tiefschlag verpasst. Wie Phoenix aus der Asche erhebt sich Berlin aber immer wieder in neuem Glanz.

Ebenfalls in der engeren Auswahl stehen Chicago, Denver, Hong Kong und London. Die Entwickler behalten sich auch vor, keine neue Stadt aufzunehmen. Stattdessen würde man dann Seattle größer machen und der Stadt mehr Tiefe verleihen. Zum Beispiel würde es dann einen größere Versionen des Ork-Untergrunds und Renraku Arcology geben.

Ich hoffe, dass es eine neue Stadt gibt und diese Berlin oder London wird. Wer das Spiel mit unterstützt hat, soll wohl einen Umfragebogen bekommen. Die dahinterstehende Firma erlaubt aber nur 10000 Teilnahmen pro Tag. Deswegen sollen sich Unterstützer von Shadowrun Returns ein paar Tage gedulden, bis die Umfrage eintrifft – bei mir ist bisher nichts eingetrudelt.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

10. Mai 2012

Seit gut einer Woche ist GIMP in Version 2.8 verfügbar. Diese Version bringt – wie jede neue Version – wieder viele Neuerungen mit, auf die ich nicht verzichten möchte. Aus diesem Grund kommt es für mich nicht in Frage, noch knapp sechs Monate bis zum Release von Ubuntu 12.10 zu warten, um die neue Version von GIMP zu bekommen. Aus diesem Grund möchte ich euch heute zeigen, wie ihr immer die aktuellste stabile Version von GIMP bekommt.

Achtung: In dieser Anleitung wird ein PPA verwendet. Dies kann ein Sicherheitsrisiko darstellen oder zu Instabilitäten führen. Bei mir funktioniert es einwandfrei, jedoch kann ich nicht garantieren, dass es auch in Zukunft noch gewartet wird.

Installation

Genug geredet – beginnen wir mit der Installation von GIMP 2.8. Zuerst fügen wir das PPA otto-kesselgulasch/gimp zu unserem System hinzu:

sudo add-apt-repository ppa:otto-kesselgulasch/gimp

Danach aktualisieren wir unsere Paketlisten:

sudo apt-get update

Wenn ihr GIMP bereits in einer älteren Version installiert habt, dann müsst ihr folgenden Befehl eingeben:

sudo apt-get dist-upgrade

Habt ihr GIMP noch nicht installieren, installiert ihr direkt die neueste Version mit folgendem Befehl:

sudo apt-get install gimp

Das war’s auch schon, GIMP ist jetzt in Version 2.8 auf eurem Computer installiert. Ihr könnt jetzt unter anderem den lange vermissten Ein-Fenster-Modus nutzen.

Bilal Akhtar über Ubuntu 12.10 Kontrollzentrum

Ubuntu 12.10 mit eigenem Kontrollzentrum

Der Entwickler Bilal Akhtar hat über sein Google+-Konto verlauten lassen, dass das GNOME-Control-Center offiziell geforkt wurde. Ab Ubuntu 12.10 “Quantal Quetzal” wird Ubuntu ein eigenes Kontrollzentrum haben: ubuntu-control-center.

Ebenso bestätigt er, dass gnome-contacts per Standard installiert sein und clutter auf der CD sein wird. Totem wollen die Entwickler in der neuesten Version ausliefern und Ubutnu 12.10 sollte aller Voraussicht nach mit einem fast kompletten GNOME 3.6-Stack ausgeliefert werden. Das gelte natürlich nicht für die Shell und das oben erwähnte Kontrollzentrum.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Diese “DIY-Mach-Dir-Deine-Windows-Systemdisk-CD-Doch-Selbst”-Mentalität bei den Herstellern von Notebooks mit ihren Custom-Recovery-Partitionen, die auf krude Weise mit dem BIOS verstrickt sind, kotzt mich an.

Ich habe hier ein Samsung N130 liegen, dass ich damals mit Linux als Dual-Boot installiert habe. Problem ist: Die F4-Taste, die im BIOS angezeigt wird, startet das Recovery-Programm nicht mehr.

Würde ich nun Linux nebst GRUB in den aktuell leeren Bereich schreiben, könnte ich die Recovery-Solution von der geheimen Partition starten (GRUB erkennt die Partition und kann auch von ihr booten). Allerdings wäre dann mein MBR im Eimer und ich dürfte wieder mit einer Debian-XFCE-Live-CD und dem Dienstprogramm “MBR” von einem Linux aus einen Windows-Boot-Record reparieren. Denn das Starten der SRS (Samsung Recovery Solution) sorgt direkt für eine Manipulation des Boot-Loaders, womit GRUB nicht umgehen kann und das Notebook dauerrebootet.

Diese proprietäre Scheisse geht mir auf den Sack. Es hat mich zum zweiten Mal in meinem Leben fast 2 Stunden Arbeit gekostet, das Ding in einen brauchbaren Zustand zu bringen. Und dann gibts kein CD-Laufwerk. Aber das macht ja nix, CDs gibts ja eh nicht mehr. Und glaubt ihr, es gibt irgendwo mal schnell ne Möglichkeit, ne WinXP Boot-CD bzw. ein USB-Image oder so legal runterzuladen, wenn man nur diese bescheidene Recovery-Partition hat?

Nein, ich mag Linux. Wirklich doll, manchmal. ISO-Image ziehen mit DD auf den USB-Stick pressen, Notebook booten, install-mbr laufen lassen, fertig. Zumindest das Windows geht schon mal wieder. Schließlich will ich das Netbook verkaufen, da sollte das schon gehen.

gzip, bzip2, xz und 7zr (Paket p7zip) wurden im Hinblick auf immer bessere Komprimierung optimiert. Mit Erfolg. Aber wer damit GByte große Dateien (z.B. Images von virtuellen Maschinen) komprimieren will, braucht Geduld. Wenn's schnell gehen soll, empfiehlt sich das weniger bekannte Kommando lzop.

Kurz eine Beschreibung des Ausgangspunkt: Auf meinem KVM-Server laufen mehrere virtuelle Maschinen, deren Datenträger sich in Logical Volumes befindet. Es gibt in den virtuellen Maschinen diverse Backup-Scripts für wirklich kritische Daten, aber hin und wieder hätte ich zusätzlich gerne ein vollständiges Backup des virtuellen Datenträgers. Im Prinzip geht das so:

lvcreate -s -L 2G -n vmname_snap /dev/vg0/vmname
dd if=/dev/vg0/vmname_snap bs=4M of=/backup/vmname.img
lvremove -f /dev/vg0/vmname_snap

Ich führe also einen LVM-Snapshot durch, lese dann das LV mit dd aus und speichere es als Image-Datei in einem Backup-Verzeichnis (oder übertrage es via ftp, scp etc. auf einen anderen Backup-Server, das ist hier nicht relevant).

Im Prinzip funktioniert das gut, aber die Backup-Dateien werden recht groß. Z.B. habe ich beim Einrichten einer virtuellen Maschine ein LV mit 40 GByte eingerichtet. Die virtuelle Maschine beansprucht davon aber erst 5 GByte. Da wäre es sinnlos, jedesmal eine 40 GByte große Backup-Datei zu erstellen, oder?

Nun gut, dann komprimieren wir das Backup eben:

dd if=/dev/vg0/vmname_snap bs=4M | gzip -c > /backup/vmname.img.gz

Haben Sie schon einmal versucht, 40 GByte mit gzip zu komprimieren? Das dauert (fast) ewig, die CPU wird heiß und Ihr Server, wenn er nicht gerade im Leerlauf läuft, reagiert plötzlich nur noch träge.

Und das führt nach einer kurzen Google-Suche und ein paar eigenen Experimenten zum Kommando lzop aus dem gleichnamigen Paket. lzop komprimiert nicht so toll wie gzip und Co., ist dafür aber unheimlich schnell. Das eigentliche Backup-Kommando sieht nun so aus:

dd if=/dev/vg0/vmname_snap bs=4M | lzop -c > /backup/vmname.img.lzo

Zumindest für meine Zwecke ist das optimal: Der KVM-Host reagiert auch dann noch zufriedenstellend, wenn gerade ein Backup läuft, der Platzbedarf des Backups ist OK, der Zeitaufwand ebenso.

Ein paar Benchmark-Ergebnisse

Bis ich zum obigen Backup-Kommando gekommen bin, habe ich ein paar Benchmark-Tests durchgeführt -- allerdings nicht auf meinem Root-Server und KVM-Host, sondern auf einem lokalen PC mit einer sehr schnellen SSD (Samsung 830). Dort gibt es das LV /dev/vg830/lv3 mit einer Größe von 9,8 GByte. Es enthält eine virtuelle Maschine mit einer kleinen CentOS-Installation. Das Listing zeigt verschiedene Verfahren, das LV zu sichern.

time dd if=/dev/vg830/lv3 of=lv3.img bs=4M
  10485760000 Bytes (10 GB) kopiert, 51,1847 s, 205 MB/s
  real  0m51.425s
  user  0m0.000s
  sys   0m15.013s

du -h lv3.img
  9,8G  lv3.img

----------------

time dd if=/dev/vg830/lv3 bs=4M | gzip -c > lv3.img.gz
  10485760000 Bytes (10 GB) kopiert, 219,162 s, 47,8 MB/s
  real  3m39.172s
  user  3m15.036s
  sys   0m14.793s

du -h lv3.img.gz 
  1,4G  lv3.img.gz

----------------------

time dd if=/dev/vg830/lv3 -bs 4M | gzip -c -1 > lv3.img.gz
  10485760000 Bytes (10 GB) kopiert, 119,3 s, 87,9 MB/s
  real  1m59.306s
  user  1m33.010s
  sys   0m14.721s

du -h lv3.img.gz 
  1,6G  lv3.img.gz

----------------

time dd if=/dev/vg830/lv3 bs=4M | 7zr a -si lv3.img.7z
  10485760000 Bytes (10 GB) kopiert, 1493,4 s, 7,0 MB/s
  real  24m53.424s
  user  38m37.841s
  sys   0m30.446s

du -h lv3.img.7z 
  926M  lv3.img.7z

-------------------------

time dd if=/dev/vg830/lv3 bs=4M | lzop -c > lv3.img.lzo
  10485760000 Bytes (10 GB) kopiert, 63,8877 s, 164 MB/s
  real  1m4.631s
  user  0m29.930s
  sys   0m18.865s

du -h lv3.img.loz 
  2,1G  lv3.img.loz

Eine kurze Zusammenfassung: Am schnellsten ist das Backup mit einem simplen dd-Kommando erledigt (51 Sekunden). Allerdings ist der Platzbedarf hoch (9,8 GB).

gzip ohne weitere Parameter verkleinert das Backup auf 1,4 GB, die Ausführung dauert aber nun 3:39. Wird gzip mit der Option -1 angewiesen, lieber schnell und weniger gut zu komprimieren, steigt der Backup-Platzbedarf auf 1,6 GB, die Backup-Zeit sinkt auf zwei Minuten.

Dem Komprimierkommando 7zr (Paket p7zip) gelingt das Kunststück, das Backup auf 926 MByte zu schrumpfen. Das dauert dann aber 25 Minuten, wobei gleich zwei CPU-Cores zum Einsatz kommen. Daher ist die user-Zeit größer als die real-Zeit.

Mein persönlicher Favorit ist lzop: Die Backup-Zeit steigt gegenüber einem reinen dd-Kommando nur minimal an (von 51 auf 64 Sekunden). Der Platzbedarf des Backups beträgt nun 2,1 GB. Das ist deutlich mehr als mit gzip und 7zr, aber immer noch weniger als ein Viertel im Vergleich zur unkomprimierten Variante.

Wie für alle Benchmark-Tests gilt: Sie werden ganz andere Ergebnisse erzielen -- je nachdem, wie gut sich Ihre Image-Dateien komprimieren lassen, wie schnell Ihre CPU ist, wie schnell die Festplatte oder SSD ist etc.

PS: In meinem realen KVM-Server befinden sich übrigens eine herkömmliche Festplatte und eine wesentlich langsamere CPU. Dort kommen die Vorteile von lzop noch stärker zum Tragen.

Update 14.5.2012

Im obigen Listing gilt immer bs=4m. Im ursprünglichen Beitrag war dort vereinzelt bs=64m zu finden (ist jetzt korrigiert).

Ein Leser auf pro-linux.de hat vorgeschlagen, anstelle von dd einfach cat zu verwenden. Das spart nochmals ein paar Sekunden. Vielen Dank für den Hinweis!

time cat /dev/vg830/lv3 | lzop -c > lv3.img.lzo
  real  0m55.884s
  user  0m33.430s
  sys   0m19.717s

Tablet Spark Vivaldi mit Plasma Active 150x150Der Projektleiter des KDE-Tablets Vivaldi hat wieder gute Neuigkeiten. Vor kurzem erst verkündete er, dass Vivaldi mit 1 GByte Arbeitsspeicher ausgeliefert wird. Nun hat Aaron J. Seigo berichtet, dass sich der interne Speicher verdoppeln wird – statt 4 gibt es 8 GByte Speicher.

Ebenso sei man gerade dabei, den Preis für den US-Markt aufzusetzen. Leute sollen sich auf eine angenehme Überraschung einstellen.  Was das für Europa bedeutet, weiß ich nicht. In der Regel ist es ja so (unverschämt), dass bei Elektronik in Europa einfach das $ gegen ein € ausgetauscht wird.

addons.makeplaylive.com

Hardware: addons.makeplaylive.com

Weiterhin habe man Partnerschaften mit diversen Firmen geschlossen, um eine effektives Partner-Netzwerk um Make Play Live zu basteln. Das decke Dienste und Support um Vivaldi ab. Auch das Add-Ons App und künftiges würde ohne eine vernünftiges Partner-Netzwerk nicht funktioneren. Seigo verspricht dazu noch mal einen umfangreicheren Blog-Eintrag.

Kürzlich seien schon erste Konten in Make Play Live erstellt worden und das Kreditkarten-System ist live gegangen. Somit sei addons.makeplaylive.com vollständig einsatzbereit. Dort ist übrigens auch zu lesen, dass Vivaldi um die 200 Euro kosten soll und es gibt Liste zur Hardware-Spezifikation. Nachdem Version 1.0 der Add-Ons App in edn Startlöchern steht, wird man auch in Kürze die Server mit Inhalten bestücken und eine verschlüsselte (SSL) Webseite auf Port 80 anbieten. Eine Entwickler-Version wird wohl auf Port 3000 offen bleiben.

Das alles liest sich doch schon ganz gut und die Veröffentlichung von Vivaldi scheint vor der Türe zu stehen.

Hardware laut addons.makeplaylive.com:

  • 7-Zull Multitouch Bildschirm (800×480)
  • 1 GHz ARM Cortex A9 Prozessor mit Mali 400 GPU
  • 1GByte DDR2 RAM
  • 8 GByte Nand Flash Disk
  • Wireless Wi-Fi 802.11 b/g (3G via externem USB)
  • 1.3 Megapixel Kamera, die vorne eingebaut ist.
  • HDMI 1080P Ausgang
  • 2 USB Ports
  • MicroSD Einsteckplatz
  • 3.5 mm Audioanschluss
  • 4 dimensionaler Gsensor
  • Akku: 3000mAH @ 7.4v
  • gewicht: 355 Gramm

Wie schon ein paar Mal in Kommentaren erwähnt, ist die Basis für Vivaldi das ZTPad C71.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Salix OS Logo 150x150Das Team um die Distribution Salix OS hat einen weiteren Abkömmling offiziell veröffentlicht. Als Desktop-Umgebung bringt das OS den GNOME2-Fork MATE mit sich. Dies ist für Anwender gedacht, die sich mit dem neueren GNOME3 nicht anfreunden können. Alle GNOME-Teile wurden mittlerweile umbenannt, damit es keine Konflikte mit GNOME3 gibt. Zum Beispiel wurde der Dateimanager Nautilus in Caja umbenannt. Der Dokumentenbetrachter Evince heisst nun Atril und der Archiv-Manager Engrampa. Ansonsten verhält sich MATE genauso, wie das auch GNOME 2.32.x getan hat.

Für Salix könnte MATE laut eigener Aussage künftig eine größere Rolle spielen. Das gelte im Besonderen, wenn Slackware einen Umstieg auf GTK+3 verweigert. Da Slackware die Basis für viele andere Distributionen ist, würde das nicht nur Salix betreffen.

Scalix 13.37 Desktop

Scalix 13.37: Desktop (Quelle: salixos.org)

Eine Installation der bereitgestellten ISO-Abbilder funktioniert über den üblichen Salix-Installer und bietet auch die Installations-Möglichkeiten: Core Mode, Basic Mode oder Full Mode. Der Core-Modus ist wie bei den anderen Salix-Derivaten einfach ein Kommandozeilen-System ohne grafische Oberfläche.

Der Basic Mode bringt eine rudimentäre MATE-Umgebung mit Firefox und einigen Salix-Tools, inklusive Paket-Manager Gslapt und Sourcery Slackbuild. Ebenso ist der Dateimanager Caja und die Einstellungstools von MATE enthalten.

Scalix 13.37 Sourcery

Scalix 13.37: Sourcery (Quelle: salixos.org)

Full Mode ist einfach alles, was das ISO zu bieten hat. Darunter befinden sich neben Atril und Engrampa auch LibreOffice, Claws-Mail, Pidgin und GIMP. Du kannst die ISO-Abbilder aus dem Download-Bereich der Projektseite beziehen. Es gibt Ausgaben für die Architekturen x86 und x86_64: salix-mate-13.37.iso (610 MByte, torrent), salix64-mate-13.37.iso (601 MByte, torrent).

GNOME3 und MATE zeigen derzeit wunderschön den Fluch und Segen von Open-Source auf. Einige Fragen sich sicher, warum ein Fork von GNOME2? Wären die Ressourcen nicht besser in Xfce oder LXDE aufgehoben? Die Entwickler von Linux Mint sind mit GNOME3 ebenfalls nicht zu glücklich, wollen aber den Unterbau von GNOME3 nutzen – daraus enstand Cinnamon. Von der Benutzung her wie ein traditioneller Desktop, angetrieben von neuen Technologien.

Würde ich persönlich MATE einsetzen? Ich glaube nicht. Ich mochte GNOME 2.32 – einfach zu bedienen und schnörkellos. Die Ansicht habe ich auch von KDE 3.5. Aber ich finde auch Weiterentwicklung spannend. Meiner Meinung nach bietet mir Xfce, das gerade in Version 4.10 erschienen ist (und sich mit einer Live-Version von Porteus 1.2 testen lässt), alles, was ich brauche. Seit Version 4.8 kann man nun durch das (Samba-)Netzwerk brausen und die Xfce-Entwickler verbessern das Leichtgewicht langsam aber stetig. Auf meinem schnelleren Rechner liegt mir Cinnamon am besten – das fühlt sich am ehesten nach “zu Hause” an. Andere stehen total auf Ubuntus Unity. Ich sehe es dennoch als Segen, die Wahl zu haben. Vor allen Dingen kann ich so auch ältere Rechner noch wunderbar mit modernen Herzstücken betreiben. Mir gefällt die Artenvielfalt und Konkurrenz beflügelt schließlich auch Innovation.

Andere Salix-Varianten

Salix OS 13.37 Live KDE

Basiert auf Slackware 13.37, hat aber Extra-Repositories ...

8 Fotos

Salix OS 13.37 Fluxbox

Basiert auf Slackware 13.37

8 Fotos


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Mein neues Spielzeug Zotac ZBOX PLUS ID41 Mini-PC (Intel Atom D525, 2GB DDR3-800, 250GB HDD, Next Generation NVIDIA ION 512MB, WLAN) ist gestern angekommen.

 

Zusätzlich habe ich mir noch ein 2 GB Ram Modul bestellt, was sehr einfach einzubauen war. Die Installation von Ubuntu 12.04 amd64 verlief eigentlich ohne Probleme. Das einzige Problem was ich hatte war, das dass Internet immer wieder zusammengebrochen ist, Provider Problem. Dadurch dauerte die Installation recht lange.

Irgendwann beim Software Update war dann die Internet Verbindung komplett weg. Ich musste dann meinen UMTS USB Stick bemühen, um die Updates und die Installation von weiteren Programmen durchführen zu können.

Der Zotac Rechner ist klein, Stylisch und enorm leise, kein Vergleich zu meinen (alten) Imac oder HP Notebook. Die Leistung des Intel Atom D525 (Dualcore) ist erfreulich hoch, Libre Office, Gimp, Darktabe, Stellarium, Blender, VLC etc. starten genau so schnell wie auf jedem anderen Rechner mit einem schnelleren Prozessor.
Alle Programme inkl. Blender lassen sich ohne Probleme und Verzögerungen voll nutzen, der Geschwindigkeitsunterschied zu anderen Rechner ist kaum bemerkbar. Blender braucht zum Rendern von allerdings etwas länger, damit kann ich aber leben.

Als Video Player verwende ich den VLC, in den Einstellungen (Input & Codecs) muss die Option “Nutze die GPU-Beschleunigte Decodierung” ausgewählt werden. Auf diese Weise lassen sich HD Videos in Full HD wiedergeben, ohne das es ruckelt. Ich habe ein 24″ 16:9 Monitor und der Zotac Rechner ist über HDMI angeschlossen und liefert nicht nur bei Videos ein scharfes und sehr gutes Bild.

Die Prozessorauslastung beim Decodieren von Full-HD Videos liegt bei ca. 43%, nebenbei kann man noch mit Blender arbeiten, im Internet Surfen und noch einen Brief mit Libre Office schreiben, die Prozessorauslastung liegt dann bei 89%.

Das der Zotac so gut läuft, hatte ich nicht erwartet, man kann mit dem Rechner ganz normal arbeiten wie mit jedem anderen (schnelleren) auch. Ich werde den Zotac zu meinem Arbeitsplatzrechner machen, ich mag es leise. Die eingebaute WLAN Karte, die öfter bemängelt wurde, ist wirklich nicht die beste. Ansonsten gibt es am Zotac nichts auszusetzen.


9. Mai 2012

Über den First-Person-Shooter Xonotic berichtete ich ja bereits. Seitdem hat sich vieles getan, es wurden mit 0.5 und 0.6 weitere Releases veröffentlicht. Viele neue Features kamen hinzu, so kann man jetzt Flug- und Fahrzeuge steuern, es gibt neue Waffen und Maps, neue Game-Modi, neue Bewegungssteuerung, Online-Statistiken für Spieler sowie Client-Side networked players, was die Latenzen bei Netzwerk-Spielen verringern soll.

Wer nun Ubuntu-User ist und das Spiel in der aktuellen Version installieren will, der wird natürlich erst mal zur Paketverwaltung greifen. Mit PlayDeb gibt es auch die passende Paketquelle für. Jedoch befindet sich Xonotic in aktiver Entwicklung, häufig gibt es neue Funktionen, die ausprobiert werden wollen, sodass auf den meisten Servern ein aktueller Snapshot aus dem Development-Repository läuft. Daher ist es ratsam, dieselbe Version einzusetzen, schon um Kompatibilitätsprobleme zu vermeiden. Doch das dauernde Kompilieren des Quellcodes kostet Zeit und nervt irgendwann.

Daher gibt es die Autobuilds, welche das Kompilieren überflüssig machen: Die Xonotic-Server selbst kompilieren den aktuellen Quellcode aus dem Development-Repository für verschiedene Architekturen und bieten das Ergebnis zum Download an. Der User divVerent hat dazu ein Skript geschrieben, welches diese Dateien über rsync herunterlädt. Somit spart man sich Zeit, die für das Kompilieren draufgeht, und hat trotzdem eine tagesaktuelle Version. Zudem lädt rsync nur die Dateien herunter, die sich zur Version auf der Festplatte geändert haben, sodass ein Update blitzschnell vonstatten geht.

Nun gibt es da noch einen Schönheitsfehler: Die Paketverwaltung kommt nicht zum Zug, man muss sich Startskript und Menüeinträge selbst erstellen und alle Dateien an den richtigen Ort kopieren. Also habe ich schnell ein Debian-Paket (.deb) gebaut, welches dies erledigt.

Das Paket installiert folgende Dateien:

  • /usr/games/xonotic: Skript zum Starten des Spiels
  • /usr/local/share/applications/xonotic.desktop: Dazugehöriger Menüeintrag
  • /usr/local/share/pixmaps/xonotic.svg: Icon von Xonotic
  • /usr/local/sbin/update-xonotic: Das eigentliche Update-Skript von divVerent, angepasst von mir, damit es die Dateien nach /opt/xonotic/ installiert.

Nach der Installation wird automatisch update-xonotic aufgerufen, hier wird das eigentliche Spiel das erste Mal heruntergeladen; dies kann, jede nach Internet-Verbindung, ziemlich lange dauern. Das Update erfolgt jedoch wesentlich schneller, einfach

$ sudo update-xonotic

aufrufen und rsync lädt die geänderten Dateien herunter. Wenn das Paket deinstalliert wird, dann wird das Verzeichnis /opt/xonotic und die anderen Dateien wieder entfernt. Im Grunde funktioniert das Paket nicht anders wie flashplugin-installer, ttf-mscorefonts-installer oder nautilus-dropbox, nur dass dort das eigentliche Programm aus lizenzrechtlichen Gründen nicht dem Paket beiliegt, sondern von der Hersteller-Website heruntergeladen wird.

Das Paket funktioniert mit x86 und x86_64, weil für diese Architekturen Autobuilds gebaut werden. Die verwendete Architektur wird vom Skript automatisch erkannt.

Viel Spaß damit.

[Download]


Mit dem Mozilla Marketplace hat Mozilla einen Marktplatz für kostenfreie sowie kostenpflichtige Apps geschaffen, welche auf Web-Technologien wie HTML5, JavaScript und CSS setzen und damit prinzipiell für den Desktop-Computer, das Smartphone und das Tablet gleichermaßen geeignet sind. Nun hat der Marketplace für eingeladene Mozillians geöffnet. Selbstverständlich habe ich es mir nicht nehmen lassen, diesen vorab einmal anzuschauen und ein paar Eindrücke zu teilen.

Ende Februar hat der Marketplace bereits für Entwickler eröffnet. Seit diesem Zeitpunkt können Webentwickler ihre Apps in den Mozilla-Store hochladen. Nun hat für erste Benutzer die Testphase des eigentlichen Marketplace begonnen. Noch im Laufe des zweiten Quartals soll die offene Betaphase folgen. Nutzer ohne Berechtigung sehen derzeit nach der Anmeldung nur einen Hinweis auf den baldigen Start.

Voraussetzungen

Um Apps installieren zu können, gibt es eine entscheidende Voraussetzung: Firefox ab Version 15, dessen finaler Release voraussichtlich am 28. August 2012 ist. Als Betriebssystem für Desktop-Systeme werden Windows XP oder höher respektive Mac OS X 10.5 oder höher vorausgesetzt. Linux wird zu diesem Zeitpunkt noch nicht, aber bald auch unterstützt werden. Sind die Voraussetzungen erfüllt, können über marketplace.mozilla.org Apps auf dem Gerät der Wahl installiert werden.
Nachtrag 04.06.2012: Mittlerweile gehört auch Linux zu den unterstützten Betriebssystemen.

Da der Marketplace derzeit nur einem eingeschränktem Publikum zur Verfügung steht, ist eine vorherige Anmeldung erforderlich. Diese ist aber simpel. Man meldet sich hierfür einfach mit seiner E-Mail-Adresse via Persona / BrowserID an.

Der Start

Im Kopfbereich der Seite gibt es eine Suchfunktion für Apps sowie ein Menü, über welches man zu den beliebtesten Apps und den Kategorien kommt. Diese beiden Dinge gibt es auf jeder Seite. Auf der Startseite werden zudem ein paar Apps empfohlen, ein paar der beliebtesten Apps werden direkt angezeigt und es gibt auch hier die Möglichkeit zu den einzelnen Kategorien zu navigieren. Das sind Bücher, Business, Bildung, Unterhaltung & Sport, Spiele, Gesundheit & Fitness, Lifestyle, Musik, News & Wetter, Fotos & Medien, Produktivität, Social & Kommunikation, Reisen sowie Utilities.

Apps finden

Um Apps zu finden, gibt es verschiedene Möglichkeiten. Eine ist es, eine auf der Startseite empfohlenen Apps direkt auszuwählen. Eine andere, die angesprochene Suchfunktion zu benutzen. Hier gelangt man dann zu einer übersichtlichen Liste aller Ergebnisse, welche direkt nach verschiedenen Kriterien gefiltert werden können, nämlich nach der Kategorie der Apps, ob kostenlose oder kostenpflichtige Apps gesucht werden und ob die App für Desktop, Tablet oder Smartphone ausgelegt ist. Außerdem kann diese Liste nach Wichtigkeit, Anzahl wöchentlicher Downloads, der besten Bewertung, dem Preis oder der Aktualität sortiert werden. Die Liste selber zeigt neben dem Namen und einer kurzen Beschreibung der jeweiligen App noch an, auf welchen Gerätentypen die App funktioniert, in welcher Kategorie sie eingeordnet ist, wieviel sie kostet beziehungsweise ob sie kostenlos ist, die Anzahl der wöchentlichen Downloads sowie eine Bewertung durch die Benutzer.

Die Ansicht für eine einzelne Kategorie ist wieder sehr ähnlich der Startseite. Hier werden zunächst drei Apps gefeatured, anschließend folgen die beliebtesten Apps aus dieser Kategorie und am Ende gibt es wieder eine Auswahl für alle Kategorien. Lässt man sich alle Apps aus einer Kategorie anzeigen, landet man wieder auf einer Such-Ergebnisliste, welche die entsprechende Kategorie als Filter voreingestellt hat.

Apps installieren

Die Detail-Ansicht bietet natürlich die ganzen Informationen, welche bereits die Übersicht gezeigt hat, also einen Namen, eine Beschreibung (welche an dieser Stelle im Normalfall etwas länger ist), die Zielgeräte, die Anzahl wöchentlicher Downloads und eine Bewertung. Und natürlich der Entwickler der App fehlt hier nicht. Weiter gibt es Screenshots zur jeweiligen App und weiterführende Informationen wie Kontaktdaten, eine App-Homepage, das Veröffentlichungsdatum oder auch einen Link zu einer Datenschutzerklärung. Das Wichtigste auf dieser Seite: Ein großer Downloadbutton bei kostenlosen Apps bzw. ein Button, welcher den Kaufpreis anzeigt. Bei installierten Apps hingegen erscheint an dieser Stelle ein ausgegrauter Button, welcher anzeigt, dass die App bereits installiert ist.

Apps bezahlen

Die Frage, wie man Apps überhaupt bezahlt, ist an dieser Stelle berechtigt. Über die Benutzereinstellungen gelangt man zu seinen Bezahl-Einstellungen. Hier kann eine Verknüpfung mit dem eigenen PayPal-Konto hergestellt werden. So lassen sich Apps mit nur einem Klick kaufen und installieren. Innerhalb von 30 Minuten lässt sich das Geld für eine bezahlte App übrigens in jedem Fall zurückerstatten, ansonsten je nach Kulanz des Verkäufers innerhalb von 60 Tagen auf Anfrage. Freundlicherweise überweist Mozilla den frühen Testern auf Anfrage direkt fünf Dollar auf das PayPal-Konto, um die Funktionalität des App-Kaufs testen zu können, das ist vielleicht nicht für den späteren Endnutzer relevant, für mich aber eine lobende Erwähnung wert.

Sonstiges

Außerdem gelangt man hierüber zu seinem eigenen Benutzerprofil. Über die Detail-Ansicht der Apps gelangt man bei einem Klick auf den Entwicklernamen zu den entsprechenden Profilen der Entwickler. Neben dem Namen und dem Foto gibt es hier noch weitere Informationenw wie Ort, Beruf, Homepage, eine kurze Beschreibung zur Person sowie relevante Daten wie die Angabe, seit wann der Benutzer angemeldet ist, die Anzahl der entwickelten Apps sowie die Durchschnittsbewertung.

Schließlich gibt es im Marketplace noch eine Übersicht über alle installierten Apps. Diese entspricht im Prinzip wieder der Ergebnisliste einer Suche, bloß eben ohne weitere Filter. Und sortiert werden kann nach Name, Preis und Zeitpunkt des Erwerbs.

Bei der Installation von Apps auf dem Desktop-System werden die Apps unter Windows übrigens auf dem Desktop und im Startmenü und unter Mac OS X im Anwendungs-Verzeichnis und auf dem Launchpad abgelegt. Zur Deinstallation wird die App bei Windows über die Systemsteuerung entfernt, bei Mac OS X einfach in den Papierkorb geschoben. Die Angaben für Linux folgen an dieser Stelle, sobald Linux unterstützt wird.

Mich stört unter Linux häufig, dass es 2 getrennte Zwischenablagen gibt. Zum einen kann man Text mit STRG+C kopieren, und zum anderen durch markieren des Textes mit der linken Maustaste. Der über die Tastenkombination kopierte Text kann dabei aber nur durch STRG+V (oder entsprechende Menüeinträge) wieder eingefügt werden. Der markierte Text dagegen muss mit der mittleren Maustaste wieder zum Vorschein gebracht werden.

Es gibt also 2 Zwischenablagen, die auf verschiedene Weise be- und entladen werden müssen. Dieses Verhalten stört mich. Viel lieber wäre mir eine gemeinsame Zwischenablage, die sowohl mit der Maus, als auch mit den Standardtastenkombinationen bedient wird.

In KDE lässt sich mein gewünschtes Verhalten leicht im Klipper (KDE Zwischenablage-Manager) einstellen. Unter Ubuntu Unity gibt es so etwas von Haus aus leider nicht. Hier springt ClipIt in die Presche. Es ist bereits in den Standardquellen zu finden und lässt sich einfach über

sudo apt-get install clipit

installieren. Ist die Installation abgeschlossen, so startet ihr das Programm über das Dash durch Eingabe von clipit. Jetzt solltet ihr ein neues Symbol oben rechts auf den Panel sehen. Klickt mit der rechten Maustaste auf das Symbol, um die im Bild zu sehenden Einstellungen vorzunehmen.

Clipit

Clipit

ClipIt sollte nun aus den üblichen 2 Zwischenablagen eine gemacht haben.

Leider hat ClipIt standardmäßig kein monochromes Symbol spendiert bekommen. Das lässt sich aber nachbessern. Ich verwende hierzu Symbole von devianart.com. Installieren kann man ein monochromes Symbol dann mit:

sudo apt-get install p7zip
wget http://www.deviantart.com/download/161002817/Ubuntu_Mono_Parcellite_Icon_by_Ramzea.7z
p7zip -d Ubuntu_Mono_*
sudo mv /usr/share/icons/hicolor/scalable/apps/clipit-trayicon.svg /usr/share/icons/hicolor/scalable/apps/clipit-trayicon.svg_backup
sudo cp parcellite-lucid-icons/gtk-paste.svg /usr/share/icons/hicolor/scalable/apps/clipit-trayicon.svg # helles Icon
# sudo cp parcellite-lucid-icons/gtk-paste2.svg /usr/share/icons/hicolor/scalable/apps/clipit-trayicon.svg # dunkles Icon

Wenn ihr wollt, dass ClipIt bei jedem Login gestartet wird, so solltet ihr das Programm zum Autostart (Startup Applications) hinzufügen. Es ist auch möglich bei ClipIt komplett auf das Programmsymbol zu verzichten. Dazu müsst ihr das Tool mit

clipit -n

starten. Diese Variante bevorzuge ich, da so mein Panel etwas übersichtlicher bleibt.

Das war’s! Für mich ist das Arbeiten so viel angenehmer und vielleicht für den einen oder anderen auch :-)

Mageia Linux Logo 150x150Mit etwas Verspätung ist der Release-Kandidat von Mageia 2 erschienen. Wegen unvorhergesehener Probleme mussten die Entwickler ja eine dritte Beta-Version einschieben. Seit dieser Ausgabe sind laut eigener Aussage zahlreiche Bugfixes eingeflossen. Die Konsequenz aus der Verspätung ist, dass die Herausgabe der finalen Version auf den 22. Mai 2012 verlegt wurde.

Mageia 2 RC bringt glibc 2.14.1 und Linux-Kernel 3.3.4, inklusive native Unterstützung für Xen. Für bessere Sicherheit sorgt das Tomoyo Framework. Wie bereits früher bekannt gemacht wurde, wird Mageia 2 per Standard auf dracut setzen, um initrds zu erzeugen. mkinitrd wird immer noch vorhanden sein – wer es denn unbedingt braucht. Anwender von systemd müssen allerdings dracut einsetzen.

Mageia 2 KDE Menü Desktop

KDE: Menü und Desktop

Ebenso mit von der Partie ist eine Vorabversion von PulseAudio 2.0. Hauptgrund dafür ist die Kopfhörerbuchsen-Erkennung in Kernel 3.3. Die finale Version von Mageia 2 soll dann auch die finale von PulseAudio 2.0 enthalten.

Das Drucksystem CUPS wurde auf Version 1.5.2 aktualisiert. Dieses hat immer noch Schwierigkeiten mit dem usblp-Kernel-Modul bei der Erkennung von USB-Druckern. Deswegen ist das Modul in der Datei /etc/modprobe.d/blacklist-cups-common.conf deaktiviert. Einige ältere und proprietäre Treiber brauchen es aber. Sollte der Drucker nicht funktionieren, könnte ein modprobe usblp als root helfen. Die Live-Versionen haben kein Drucksystem installiert und somit funktioniert auch keine automatische Erkennung. Wer eine Live-Ausgabe installier kann CUPS über das Kontrollzentrum nachinstallieren.

Mageia 2 KDE

Der Mandriva-Abkömmling wird erwachsen ...

14 Fotos

Magaie 2 RC kommt mit KDE 4.8.2 und dem Standard-Oxygene-Theme. Als Alternativen stehen GNOME 3.4.1, LXDE, Sugar 0.95 und diverse Fenstermanager zur Verfügung. Dazu gehören unter anderem AfterStep, Awesome, Enlightenment (E17), Openbox und IceWM.

In Sachen Audio haben Anwender Zugriff auf Amarok 2.5, Audacious 3.2.2, Cantata 0.3.0 und Clementine 1.0.1. Ebenso im Zugriff befinden sich die Video-Programme Kdenlive 0.8.2.1 (Video Editor), MPlayer, VLC und Xine (inklusive der GUIs Kaffeine und Xine-UI).

Die Entwickler der Distribution setzen auf MariaDB 5.5 als Datenbankserver. Somit ist MySQL obsolet. Die InnoDB Engine wurde durch XtraDB ersetzt, intern aber immer noch InnoDB genannt. Das gilt auch für Federated, das durch FederatedX ausgetauscht wurde. Wer lieber auf PostgrSQL setzt, hat Zugriff auf die Versionen 8.4.11, 9.0.7 oder 9.1.3.

Als weitere Server-Pakete sind Apache 2.2.22 und Postfix 2.8.8 vorhanden. In Sachen Web-Anwendungen können Anwender auf einfachem Weg auf Drupal 7.12 und MediaWiki 1.16.5 zugreifen. Als Internet-Browser sind Firefox, Chromium, Epiphany, Opera, Konqueror und Midori aufgenommen.

Fliegende Schildkröte

Fliegende Schildkröte ist in Mageia 2 aufgenommen

Ich bin natürlich besonders entzückt, dass es eines meiner Bilder beim Mageia-Wettbewerb in die Distribution geschafft hat. Es dient für den Bildschirmschoner. Das Bild gibt es auch als kostenlosen Download in der Wallpaper-Sektion.

Du findest weitere Informationen zu Mageia 2 RC in den Veröffentlichungshinweisen. In der Download-Sektion der Projektseite stehen insgesamt 16 Live-CDs zur Verfügung. Du kannst zwischen den Geschmacksrichtungen KDE oder GNOME und zwischen 62 verschiedenen Sprachen wählen. Natürlich gibt es die Distribution für die Architekturen x86 und x86_64. DVD-Abbilder für eine direkte Installation gibt es natürlich auch: Mageia-2-rc-i586-DVD.iso (3,5 GByte, torrent),Mageia-2-rc-x86_64-DVD.iso (3,5 GByte, torrent)


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Die Version 1.07 der Liberation Fonts, welche Ubuntu 12.04 mitliefert, enthält einen ziemlich hässlichen Bug, welcher sich folgendermaßen äußert:

Die aktuelle Version 1.07.2 enthält diesen Bug nicht mehr. Leider liefert Ubuntu nur die verbuggte Version aus, obwohl die bugfreie Version schon seit Februar verfügbar ist.

Um diesen Bug für mich (und hoffentlich auch für einige andere Leute) aus der Welt zu schaffen, habe ich das Debian-Paket auf Ubuntu “portiert” und per PPA verfügbar gemacht. Alles was man machen muss sind die folgenden zwei Konsolenbefehle einzugeben:

sudo add-apt-repository ppa:glasen/fonts-liberation
sudo apt-get update && sudo apt-get upgrade

Danach kann man sich endlich an einem schönen Schriftbild erfreuen.

OSHackers Logo 150x150Ok, das klingt nun dramatischer als es ist. Die Seite OSHackers.org verwendet keine von Google gesammelten Daten, um die Linux-Anwender auf einer Weltkarte darzustellen. Das Ganze ist total freiwillig und Linux-Nutzer müssen sich registrieren und den Standort selbst eintragen. Dabei wählst Du dann das System aus und wo das System steht.

Die Sache ist noch etwas in den Kinderschuhen und viele Leute haben sich noch nicht eingetragen. Ich habe es mir auf jeden Fall mal als Lesezeichen abgespeichert. Geben wir dem Projekt noch etwas Zeit und für mich wäre es einfach interessant zu sehen, in welchen Regionen die Anwender auf welche Linux-Distribution setzen.

OSHackers Karte

OSHackers Karte

Es wird versprochen, dass die Daten nicht an Dritte weitergegeben werden. Ein Impressum fehlt allerdings auch auf der Seite. Eine whois-Abfrage gibt Aufschluss, dass das Projekt wohl griechischen Ursprungs ist. Griechenland ist derzeit auch führend mit der Anzahl an Einträgen. Dort findet man neben Arch Linux und openSUSE als Mehrzahl der eingesetzten Betriebssystemen Ubuntu oder Derivate, zu denen ich auch Linux Mint zähle. Am öftesten tauch allerdings das Ubuntu-Logo auf.

Deutschland ist so gut wie gar nicht besiedelt. Hier gibt es je einen Eintrag von openSUSE und Debian.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Ubuntu Logo 150x150Mit dem gerade stattfindenden Ubuntu Developer Summit in Oakland steht die Linux-Woche natürlich unter der Flagge Ubuntus. Dass Kernel 3.5 oder 3.6 kommen soll und Unity 2D wahrscheinlich entfernt wird, hatte ich bereits berichtet. Hier ist die 36-minütige Keynote von Mark Shuttlworth, die auf YouTube veröffentlicht wurde.

Mister Ubuntu hat natürlich über die Zukunft des Linux-Betriebssystems gesprochen. Ebenfalls erwähnte er Ubuntu TV, die Benutzerfreundlichkeit von Ubuntu 12.04 LTS und HUD. Weiterhin spricht er über die Integration von Papier- und Origami-Elementen im Theme von Ubuntu 12.10. Braun möchte er ja nicht mehr haben und er stellt sich etwas farbenfroheres vor.

Das Ubuntu Developer Summit für Quantal Quetzal findet vom 7. bis 11. Mai statt. Ubuntu 12.10 soll am 18. Oktober 2012 debütieren.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Seit dem Update auf Thunderbird 12 beklagen einige Nutzer von Mozillas E-Mail-Client massive Performance-Probleme. Verursacher des Problems ist sehr wahrscheinlich Sicherheitssoftware. Bis Mozilla dieses Problem in einem Update behebt, gibt es einen einfachen Workaround, dieses Problem zu umgehen.

Wenn Thunderbird 12 beim Öffnen von E-Mails ungewöhnlich lange braucht oder gar einfriert, lohnt ein Blick in das Profilverzeichnis. Über Hilfe > Informationen zur Fehlerbehebung > Ordner anzeigen gelangt man in dieses. Befinden sich hier verschiedene Ordner, welche auf *-wal und *-shm enden, beispielsweise “places.sqlite-wal”, “places.sqlite-shm”, “cookies.sqlite-shm” und “cookies.sqlite-wal”, sind diese zu löschen, denn diese Ordner haben im Thunderbird-Profil nichts verloren. Achtung: Die gleichnamigen SQLite-Dateien sollten nicht gelöscht werden! Nach einem anschließenden Neustart von Thunderbird ist der langsame Thunderbird wieder Vergangenheit.

Ubuntu Logo 150x150Phoronix hat zwei interessante Neuigkeiten vom UDS (Ubuntu Developer Summit) in Oakland zu berichten. In Ubuntu 12.10 kommt so wie es aussieht Linux-Kernel 3.5 zum Einsatz. Allerdings behalten sich die Entwickler den Einsatz von 3.6 vor. Da kommt es ein bisschen auf die Zeit an und ob es sich überhaupt lohnt. Wenn Mark Shuttleworth in Quantal Quetzal sowieso einiges ändern möchte und es sich auch nicht um eine LTS-Version (Long Term Support) handelt, könnte man eigentlich beim Kernel auch etwas weniger konservativ sein und sich eher auf 3.6 einschießen. Das will man aber beim Erscheinen von Kernel 3.5 entscheiden. Das gerade eben erschienene Ubuntu 12.04 LTS “Precise Pangolin” setzt auf Kernel 3.2. Auch der Kernel hat Dank eines Debian-Entwicklers Langzeitunterstützung bekommen.

Die zweite sichtbare Änderung wird sein, dass sich Canonical anscheinend von Unity 2D in Ubuntu 12.10 trennen will. Man will auf eine einheitliche Unity-Oberfläche bauen, was natürlich 3D-Beschleunigung voraussetzt. Wer keine OpenGL-Beschleunigung für die GPU hat, um Unity und Compiz laufen zu lassen, wird sich mit dem LLVMpipe-Treiber für Gallium3D begnügen müssen. Das klingt schlimmer als es ist, weil dieser Treiber für einen Compositing-Desktop schnell genug ist. Auch in Fedora 17 wird dies die Fallback-Methode für GNOME Shell werden. Einzig für ARM-Geräte könnte die Geschwindigkeit von Unity via LLVMpipe ein Problem werden, wenn es überhaupt funktioniert.

Ebenso sollen einige Pakete aus GNOME 3.6 in Quantal Quetzal erscheinen. Hier ist die Sprache von Clutter, die Installation von gnome-contacts , Integration von UDisks2/GVFS integration, GStreamer 1.0 und so weiter.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

8. Mai 2012

Schlechte Zeiten für Berufsnörgler: Nachdem ahnungslose Anwender seit einem knappen Jahrzehnt immer wieder zurechtgestutzt wurden, wenn sie aus Versehen von „Open Office“ sprachen („das Programm heißt OpenOffice.org!!!11!“), müssen sich die alten Quengler nun etwas Neues einfallen lassen: Mit Freigabe von Open Office 3.4, erstmals unter Regie der Apache-Stiftung, hat sich auch der Name geändert: Das „.org“ ist entfallen, dafür wurde noch ein „Apache“ vorangestellt. Statt von „OOO“ („das heißt OOo!!!11!“) darf man künftig offiziell also von „AOO“ reden. – Sofern man überhaupt noch davon reden möchte und nicht längst mit LibreOffice arbeitet.

Aktuell Räume ich meine ganzen Projekte, die ich mal vor Jahren angefangen habe etwas aus. Dazu zählt auch pyNeighborhood welches ich gerne an jemanden verschenken würde.

Hier die Anforderungen, d.h. Wissen über diese Punkte müsste man schon mitbringen:

  • Python
  • PyGTK & Glade
  • Samba / CIFS
  • Versionskontrollen wie bzr

Hauptgrund für die weniger gewordene Zeit ist das ich meiner Aufgabe als Administrator bei ubuntuusers.de nachkommen möchte ohne das mein Privatleben zu sehr darunter leidet.

Sollte sich für pyNeighborhood niemand finden würde ich das Projekt auf Launchpad stilllegen lassen und die entsprechenden Paketbetreuer darum bitten das Paket aus den Repositories zu entfernen, es hat keinen Sinn Pakete in den Quellen zu haben welche wohl nie mehr Updates erfahren werden.