ubuntuusers.de

6. Mai 2012

Gerade von Deadly 30 gelesen. Linux Version ist fertig. Hurra!

Als ich den Trailer gesehen habe musste ich sofort an die Metal Slug Reihe denken, die ich total mag.

Egal, es ist Sonntag Abend und hatte die 4 Euro übrig. Ich hatte aber bereits erwartet, dass es nicht nur auf ein ./deadly\ 30 hinauslaufen würde. Damit lag ich auch richtig.

1
2
3
$ ./Deadly\ 30
./Deadly 30: error while loading shared libraries: libgstreamer-0.10.so.0:
cannot open shared object file: No such file or directory

Mh. Da ich nicht zwischen 32 und 64bit wählen durfte wahrscheinlich 32bit?

1
2
3
$ file Deadly\ 30                                                                                                               <br/>
Deadly 30: ELF 32-bit LSB executable, Intel 80386, version 1 (SYSV), dynamically
linked (uses shared libs), for GNU/Linux 2.6.15, stripped <br/>

Also die nötigen 32bit Libraries runterladen und einbauen.

1. /usr/lib32/ Backup erstellen

1
$ tar cfvz $HOME/usr-lib32.tar.gz /usr/lib32

2. libgstreamer installieren

1
2
3
4
5
$ cd /tmp
$ wget http://ftp.de.debian.org/debian/pool/main/g/gstreamer0.10/libgstreamer0.10-0_0.10.30-1_i386.deb
$ ar -x libgstreamer0.10-0_0.10.30-1_i386.deb
$ tar xfvz data.tar.gz
$ sudo cp -av /tmp/usr/lib/* /usr/lib32/

3. libgstreamer-plugins installieren

1
2
3
4
5
$ cd /tmp
$ wget http://ftp.de.debian.org/debian/pool/main/g/gst-plugins-base0.10/libgstreamer-plugins-base0.10-0_0.10.30-1_i386.deb
$ ar -x libgstreamer-plugins-base0.10-0_0.10.30-1_i386.deb
$ tar xfvz data.tar.gz
$ sudo cp -av /tmp/usr/lib/* /usr/lib32/

Das ist zwar alles immer total unschön, aber es funktioniert. Außerdem, was tut man nicht alles für ein bisschen 2D Shooter und Zombies?

Die freien Lizenzen von Creative Commons sind sicher recht vielen bekannt und werden auch sehr häufig inzwischen bei der Verbreitung von unterschiedlichsten Kreationen genutzt.  Als bestes Beispiel sei hier nur die Wikipedia genannt, aber auch freiesMagazin oder auch dieses Blog verwenden Creative Commons Lizenzen.

Insgesamt unterscheidet man 6 unterschiedliche Lizenzmodelle:

  • Namensnennung (BY)
  • Namensnennung – Keine Bearbeitung (BY-ND)
  • Namensnennung – Nicht Kommerziell (BY-NC)
  • Namensnennung – Nicht Kommerziell – Keine Bearbeitung (BY-NC-ND)
  • Namensnennung – Nicht Kommerziell – Weitergabe unter gleichen Bedingungen (BY-NC-SA)
  • Namensnennung – Weitergabe unter gleichen Bedingungen (BY-SA)

Ein sehr häufiger Wunsch von Autoren ist es, dass ihre Werke nicht im normalen Businessumfeld genutzt werden und verwenden daher die Bedingung Nicht kommerziell (NC). Das viele damit aber gar nicht die richtige Wahl treffen, hat der Rechtsanwalt Paul Klimpel sehr ausführlich in einer Broschüre erläutert, die ihr kostenlos hier herunterladen könnt.

Freies Wissen dank  Creative-Commons-Lizenzen

Ohne auf alle Einzelheiten näher einzugehen, die man besser direkt aus der Broschüre entnehmen sollte, hier nur die grobe Erklärung, warum es in vielen Fällen besser ist die Wiedergabe unter gleichen Bedingung (SA), anstatt der NC Bedingung zu nutzen und trotzdem  die Aneignung von Inhalten kommerzieller Unternehmen einzugrenzen:

Die negative Auswirkung der NC-Bedingung ist die schwierige Verbreitung der Inhalte, was man in den meisten Fällen ja eigentlich erreichen will. So können die Inhalte dann z.B. nicht mehr in der Wikipedia genutzt werden, da z.B. die Produktion der Wikipedia DVD durch eine kommerzielle Firma geschieht, oder die Integration der Inhalte in Suchmaschinen. Beides wäre durch die NC – Lizenz nicht möglich und verhindert somit das Verbreiten von Wissen.

Problematisch kann es z.B. auch schon für Blogger mit integrierter Werbung sein (Flattr, Google Adsense usw.), ob diese solche Inhalte noch verwerten dürfen (aktuell würde man es laut Meinungen von einigen Experten zwar nicht als Lizenzbruch sehen). In vielen Fällen verzichten diejenigen dann aber auf die Verwendung von Inhalten mit der NC-Lizenz.

Ebenfalls betriebliche Weiterbildung könnte ein Problem sein, da die Mitarbeiter von den Inhalten zunächst einmal profitieren, mittelbar dient es aber dann auch dem Unternehmenszweck.

Wem das zu viel zu lesen ist, der kann sich auch einen Vortrag auf der diesjährigen re:publica anschauen, welcher den Sachverhalt nochmal sehr gut rüberbringt.

http://www.youtube.com/watch?v=wZfnNBhyrq8

Insgesamt halte ich auch alle meine Inhalte ohne NC-Lizenz, jeder sollte sich aber zukünftig einmal damit beschäftigen ob seine Lizenzbedingungen wirklich das Ziel erreicht, was man eigentlich bezweckt.

Tablet Spark Vivaldi mit Plasma Active 150x150Aaron J. Seigo hält uns mittlerweile wie versprochen gut auf dem Laufenden, was mit dem KDE-Tablet Vivaldi derzeit so passiert. Bald soll das Gerät fertig sein und es können die ersten Exemplare ausgeliefert werden.

In einem neuen Blog-Eintrag schreibt Seigo über die Unterstützung von HTML5 WAC in Plasma. Genauer gesagt über einen Beitrag auf vizzzion.org. Die Zusammenarbeit von Intel und Samsung, die in Tizen sichtbar ist,  fokussiert sich auf WAC und ist gut dokumentiert. Plasmas Flexibilität würde es zugute kommen, dass man diese Addons eigentlich übernehmen könnte.

Somit wirft sich die Frage auf, ob Vivaldi WAC-Unterstützung bekommen wird. Seigo bejaht das, sobald die WAC-Script-Engine fertig ist. Diese hätte ihr eigenes Git-Repository und wurde in die wachsende Liste der OBS-Pakete aufgenommen. Es sei daher nicht schwer, die Engine als Update auch nach der Auslieferung auszugeben.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Program Manager_2012-05-05_08-45-04

Wubi, der Windows Ubuntu Installer ist eigentlich dafür gedacht, dass man Ubuntu ohne weiteres einmal ausgiebig testen kann, bevor man Windows ersetzt oder Ubuntu neben Windows installiert. Nach dem mein HP Notebook nicht mehr funktioniert, bin ich wieder auf meinen Imac angewiesen, der allerdings mit Windows 7 läuft. Ich hatte keine Lust die Installation zu löschen oder die Große der Partition zu ändern, damit ich weiter mit Ubuntu arbeiten kann.

Wubi ist die Lösung, einfach den Installer von der Ubuntu Homepage herunter laden, installieren, der Rest geht dann völlig automatisch. Meine Wubi-Ubuntu (Virtuelle) Festplatte ist 30 GB groß, was für die Installation von Programmen völlig ausreichend ist.

Unter der Verzeichnis  /host/ … findet sich nach der Installation die Windows Festplatte, eine gleichzeitige Nutzung der Daten ist somit ohne weiteres gegeben. Die Geschwindigkeit ist (für mich) ausreichend, ist doch Windows 7 auf dem Imac wesentlich langsamer als die Wubi-Ubuntu  Installation. Bis mein HP Notebook wieder repariert ist, werde ich diese (nicht optimale) Lösung auf jeden Fall allen anderen Lösungen vorziehen.

Ubuntu 12.04 läuft unter Wubi und Windows 7 wie eine ganz normale Distribution, mit ganz normalen Updates / Installationen und die Notwendigkeit zusätzliche Treiber für die Broadcom und ATI Hardware zu installieren.

Anfänger, die gerne mal Ubuntu testen wollen, können dies ohne Gefahr für die Windows 7 Installation machen. Über den Windows Boot Manager kann nach der Installation ausgewählt werden, welches Betriebssystem gestartet werden soll. Ruft man den Wubi Installer erneut auf, kann Ubuntu auch ganz einfach wieder entfernt werden ohne das es dabei Probleme gibt.


Puppy Linux LogoSlacko Puppy Linux ist, wie der Name bereits vermuten lässt, binärkompatibel zu Slackware Linux 13.37. Die Distribution wurde laut eigener Aussage aus den Repositories von Slackware, Salix und Slacky gebaut. Version 5.3.3 ist eine Wartungs-Version der kürzlich erschienenen Ausgabe 5.3.1.

Die Hauptversion enthält Kernel 3.1.10 mit Unterstützung für Aufs. Es gibt auch eine PAE-Ausgabe für Rechner mit mehr als 4 GByte Arbeitsspeicher. Beide ISO-Abbilder bringt Boot-Unterstützung von SCSI mit sich.

Als Standard-Browser und -E-Mail-Client dient Seamonkey 2.9.1. Firefox, Chromium, Opera, Netsurf, Iron, Dillo und Links sind allerdings mit nur wenigen Klicks installiert.

Als Minimalanforderungen gibt Barry Kauler einen i686-Prozessor mit 900 MHz und 256 MByte RAM vor. Wer die PAE-Ausgabe starten möchte, braucht eine etwas modernere CPU, die auch PAE unterstützt.

Puppy Linux 5.3 Slacko Slickpet Slickpet ist eine vereinfachte Version von Quickpet. Damit kannst Du einige Anwendungen schnell installieren, ohne in die Tiefen des Paketmanagers eindringen zu müssen. Die Applikation unterstützt auch das Installieren von SFS-Paketen. Es handelt sich hier um Module, die als Module in das Puppy-Dateisystem eingeladen werden können. Du findest hier bekannte Open-Source-Programme wie zum Beispiel LibreOffice 3.5.3, Samba 3.5.4, Wine und GIMP.

Neben Puppys nativem PET-Format lassen sich auch Pakete von Slackware, Salix und Slacky installieren. Diese liegen in der Regel als tgz- oder txz-Format vor. Das SFS-Format ist durch ein Programm mit Namen sfs_load unterstützt. SFS ist eine Art, um geschichtete Datesysteme zu laden. Diese lassen sich dann vereinen und wie ein einziges bedienen.

Per Standard liefert Slacko Abiword und Gnumeric aus. Damit solltest Du einiges an Dokumenten-Formaten öffnen können. Ebenso unterstützt die Distribution jede Menge an Multimedia-Formaten.

Puppy Linux 5.3 Slacko

Binärkompatibel zu Slackware 13.37

8 Fotos

Puppy Linux 5.0

Speziell für ältere Hardware entwickelt!

8 Fotos

Slacko richtet sich laut eigener Aussage an eher moderne Rechner, die nicht älter als sechs oder sieben Jahre sind. Auf noch älteren Computern könnte es laufen, muss aber nicht.

Der Hauptentwickler spricht davon, sehr viel Arbeit in die Feineinstellungen von Paketen wie Samba gesteckt zu haben. Das gilt auch für die liechtgewichtige Alternative Samba-TNG. Ebenso gibt es ein Netbook-Addon, womit sich Puppy über das LAN starten lässt.

Die aktuelle Version von Slacko Puppy Linux findest Du im Download-Bereich der Projektseite: slacko-5.3.3-4g-SCSI.iso(115 MByte), slacko-5.3.3-highmem-PAE-SCSI.iso (115 MByte)


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

    Montage
    Genre Bildbearbeitung
    Preis kostenlos
    Homepage Imagemagick

    In der heutigen App der Woche stelle ich kurz einen Programmteil von Imagemagick vor. Es handelt sich um den Teil „montage“, der mehrere Bilder zu einem Gesamtbild zusammenfügt.

    Installation

    Montage ist ein Kommandozeilenprogramm und gehört zum Programmpaket imagemagick. Man muss also imagemagick installieren und hat montage dann verfügbar. Der Aufruf des Programms geschieht über ein Terminal.

    Benutzung

    Montage hat viele Einstellungsmöglichkeiten. Da diese sehr umfangreich sind, möchte mich mich auf einige wenige beschränken.

    Einfache Benutzung und „stumpfes“ zusammensetzen der Bilder

    montage *.jpg bild1.png

    ohne Parameter

    Abstand zwischen den Bildern hinzufügen

    montage -geometry +2+2 *.jpg bild2.png
    Abstand zwischen Bildern reguliert

    Abstand zwischen Bildern reguliert

    Einzelbilder vorher skalieren

    montage -geometry 50x50+2+2 *.jpg bild3.png

    Einzelbilder skaliert und Abstand reguliert

    Matrix selbst bestimmen

    montage -geometry +2+2 -tile 3x *.jpg bild4.png

    Matrix selbst bestimmt

    Das 3x steht in diesem Fall für 3 Bilder pro Reihe.

    Zusätzliche Dekorationen

    montage -geometry 200x160+5+2 -shadow *.jpg bild5.png

    Schatten an jedem Bild

    montage -geometry 200x160+5+2 -frame 5 *.jpg bild6.png

    Rahmen hinzugefügt

    montage -geometry 200x160+5+2 -title "bejonet - Frühlingsblüte" -shadow *.jpg bild7.png

    Zusätzlich ein Bildtitel vergeben

    Eine umfangreichere Dokumentation und Beispiele sind auf der Projektkeite zu finden.

    PS: Bilder stammen aus meinem Flickr-Profil. Blüten, Baum.

    Hinweis vorab: Der Artikel ist in der heute erschienenen Ausgabe 05/2012 von freiesMagazin veröffentlicht wurden.

    Ob im wissenschaftlichen oder privaten Bereich. Möchte man die volle Kontrolle über das Aussehen seiner erstellten Dokumente behalten, führt oft kein Weg an LaTeX vorbei. Auch freiesMagazin basiert auf den vielfältigen Möglichkeiten von LaTeX .
    Eine LaTeX – Umgebung ist mit TeX – Live auch recht schnell auf allen Betriebssystem eingerichtet.  Dieser Standardweg zeigt jedoch ein paar Restriktionen auf. Sowohl die Online-Verfügbarkeit des Dokuments von jedem Ort aus, sowie der kollaborative Ansatz, dass mehrere Personen zeitgleich an einem Dokument arbeiten können, ist mit den Standardmitteln der Desktop – installation nicht zu erreichen.
    Daher sollen nachfolgend Lösungsansätze vorgestellt werden, die versuchen die gewünschten Zusatzfunktionen bereitzustellen.

    Cloud – Anbieter oder eigene Hosting – Lösung?

    Vorangestellt sei an dieser Stelle angemerkt, dass es zwei grundlegende Optionen gibt um das Ziel der Kollaboration in Verknüpfung mit der Online – Verfügbarkeit zu erreichen:

    • Hosting der LaTeX – Dokumente bei einem Cloud-Dienstleister
    • eigener Server in Verbindung mit einem Versionskontrollsystem (SVN, Git, Mercurial usw.)


    Die Vor – und Nachteile sind grundsätzlich nicht verschiedenen zur klassischen Diskussion über Nutzen und Gefahren des sogenannten Cloud-Computing, bei dem alle Daten und die eigentliche Anwendung auf die Infrastrukturen eines Anbieters ausgelagert werden und in dessen Verantwortungsbereich liegen.

    Ebenso sollte man sich im Voraus Gedanken zu Sicherheit und Seriösität des entsprechenden Anbieters machen. Auch die mögliche Gefahr einer plötzlichen Schließung des Dienstes mit dem eventuellen Verlust seiner Daten gehört stets mit in die Risikobetrachtung.
    Dennoch bieten die Cloud-Lösungen für den Anwender eine schnelle und komfortable Einrichtung, die in der Regel in wenigen Sekunden bereitsteht.

    Online – LaTeX Editoren

    Durch den zunehmenden Fortschritt der Webtechnologien und den deutlich größer werdenden Möglichkeiten Dokumente in Echtzeit über das Internet zu bearbeiten, haben sich verschiedene Anbieter etabliert, die eine bereits fertig konfigurierte LaTeX – Umgebung bereitstellen.
    So findet man neben dem reinen Online – Editor mit integriertem Syntax – Highlighting auch Möglichkeiten, die erstellten Dateien auf dem jeweiligen Server zu kompilieren und anschließend zu betrachten.
    Um eine für sich geeignete Auswahl zu treffen, bietet sich ein Vergleich der gängigsten Anbieter an.

    Hinweis:Es werden jeweils nur die kostenlosen Angebote der einzelnen Angebote getestet, viele Anbieter können jedoch über Abgabe eines kleinen Betrages zusätzlich erweitert werden.

    ScribTeX

    Ein interessantes Angebot macht das seit Januar 2009 am Markt bestehende ScribTeX. Nach einer kurzen Registrierung auf der Webseite kann man 3 verschiedene Projekte anlegen und insgesamt 50 MB an Speicher für seine Dokumente und Bilddateien etc. verwenden.
    Leider stehen in der kostenlosen Version die Möglichkeiten der kollaborativen Bearbeitung an Dokumenten nicht zur Verfügung, wodurch das ansonsten gute Angebot etwas getrübt wird.

    Der Editor und die Benutzeroberfläche wirkt aufgeräumt. Es stehen einem in der Menüleiste lediglich die Möglichkeiten zu speichern, Kommentare zu verfassen und das Dokument zu kompilieren zur Verfügung.

    Scribtex

    Nach den Klick auf Compile wird das Dokument im Hintergrund kompiliert und man bekommt im Anschluss das fertig gerenderte PDF-Dokument in einer Vorschau oder alternativ zum Download angeboten. Der Kompilierungsvorgang geht schneller als auf meinem Desktop-Rechner.

    Sofern Fehler auftreten oder Warnungen seitens des LaTeX – Compilers auftreten, sind diese jederzeit im Reiter Log der PDF-Vorschau einsehbar.

    Die Vorteile von ScribTeX liegen neben der Versionskontrolle für die einzelnen Dateien besonders auf der Unterstützung für das Versionskontrollsystem Git für all seine Projekte.

    Insgesamt mach ScribTeX einen ordentlichen Eindruck, die fehlenden Möglichkeiten der Zusammenarbeit in der kostenlosen Version trüben jedoch den guten Eindruck ein wenig.

    ShareLaTeX

    Im Gegensatz zu ScribTeX ist ShareLaTeX noch ein junges Projekt, welches sich aktuell noch in der Beta-Phase befindet, ohne jegliche Differenzierungen zwischen Bezahlaccounts und kostenlosen Accounts.

    Der Aufbau und die Funktionsweise ist ähnlich komfortabel wie bei ScribTeX, auch hier stehen ein Online-Editor zur Verfügung, der neben Syntx-Highlighting auch die zugehörigen Klammernpaare anzeigt. Einzig ein Befehlsvorschlag mit den in Frage kommenden Befehlen, wie man es aus gewöhnlichen Entwicklungsumgebungen kennt, wäre wünschenswert.

    ShareLateX

    Der Vorteil von ShareLaTeX liegt vor allem auch im Bereich der Kollaboration. Es ist sehr einfach über die Einstellungen einen weiteren Benutzer zum aktuellen Projekt mit Lese- und Schreibberechtigungen auszustatten, sodass der Zusammenarbeit nichts entgegen steht.

    In Zukunft denkt man zur Refinanzierung des Projektes darüber nach, die Anzahl der Projekte zu limitieren, es soll aber jederzeit einen kostenlosen Account geben.

    Man sollte hier jedoch beachten, dass die Allgemeinen Bedingungen, derzeit noch bearbeitet werden, die man sich nach Ablauf der Beta-Phase noch einmal anschauen sollte.

    writeLaTeX

    Ein dritter Vertreter der sogar komplett ohne Registrierung auskommt ist writeLaTeX.
    Die Bedienung ist hier sehr einfach und intuitiv, denn nach dem Klick auf Start Writing Now wird man automatisch zu einem LaTeX Dokument weitergeleitet, welches direkt bearbeitet werden kann.
    Hierfür wird ein eindeutiger Link generiert, den man jetzt einfach seinen Freunden und Mitarbeitern am Projekt weiterleiten kann, die dann ebenfalls direkt mit dem Editieren des Dokuments beginnen können.

    WriteLateX

    Die gesamte Benutzeroberfläche ist hier direkt in zwei horizontale Fenster geteilt, wodurch man mit einer kurzen Verzögerung das Ergebnis direkt auf der rechten Seite sieht, welches man im Code – Editor auf der linken Seite definiert hat.

    Das Projekt setzt auf dem durchaus populären Etherpad auf, welches bereits die komfortablen Möglichkeiten der gemeinsamen  Online – Bearbeitung von Dateien in mehren Projekten bewiesen hat (siehe u.a. auch das Piratenpad der Piratenpartei)

    Generell ist writeLaTeX eines der einfachsten und schnellsten Möglichkeiten gemeinsam an LaTeX – Dokumenten zu arbeiten. Es besteht ebenfalls die Möglichkeit weitere Dokumente hochzuladen, sowie das PDF – Dokument bzw. alle Dateien als Zip-Datei anschließend herunterzuladen. Hier ist man allerdings auf maximal 10 zusätzlich hinzufügbare Dateien (Bilder, .tex – Dateien, Bibliographie – Dateien usw.) limitiert, wodurch writeLaTeX eher für relativ kleine und schnell umzusetzende Projekte geeignet ist.

    LaTeX Lab

    Einen etwas anderen Ansatz als die bisher vorgestellten Lösungen verfolgt LaTeX Lab. Das Projekt steht unter der Apache Licence Version 2 und wird auf Google Code gehostet.
    Es setzt direkt auf einer der bekanntesten Plattformen für Zusammenarbeit an Texten auf, nämlich auf Google Docs und integriert in dieses einen LaTeX – Editor.
    Demzufolge muss man sich hier auch nicht neu registrieren, sondern man muss über OAuth lediglich der Anwendung den Zugriff auf Google Docs erlauben, damit LaTeX Labs auch die Dateien im Google Docs Account speichern kann. Voraussetzung ist hierfür lediglich, dass man auch bereits einen Google – Account angemeldet hat.

    Der Vorteil liegt hier auf der Hand. Man nutzt die Google Technologien und hat ein einheitliches Bild wie aus Google Docs bekannt, lediglich mit den speziellen Funktionen auf LaTeX angepasst.
    Generell erinnern die Funktionen am ehesten an die Funktionen, die man aus den klassischen Desktop-Umgebungen wie Kile  oder Texmaker  kennt.  So stehen u.a. Möglichkeiten über das Menü  zur Verfügung, um sich Aufzählungen generieren zu lassen, mathematische Zeichenbefehle ausgeben zu lassen, grundlegende Formatierungen zu nutzen u.v.m.

    LaTeX Lab

    Über die Iconleiste hat man zudem einfach die Möglichkeit das Dokument zu kompilieren und als PDF – Vorschau im Browser angezeigt zu bekommen.
    Der große Vorteil liegt bei LaTeX Labs an der tiefen Integration mit Google Docs. So kann man hier 1 GB an Daten speichern und hat die Dokumente bei seinen normalen Dokumenten jederzeit verfügbar, sofern man keine Aversionen allgemeiner Art gegenüber Google hegt.
    Zudem steht auch bei Google Docs standardmäßig eine Versionierungsoption zur Verfügung, in dem man auf vorherige Versionen zurückspringen kann, falls man einmal diese früheren Änderungen braucht.

    Eigene Hosting Lösung über ein Versionskontrollsystem

    Wer seine Daten nicht aus der Hand geben will, weil er entweder den vorgestellten Anbietern der verschiedenen Dienste nicht vertraut oder weil es einfach vertrauliche Dateien sind, die keinem Cloud-Anbieter anvertraut werden sollten, kann sich dennoch behelfen eine möglichst umfangreiche Zusammenarbeit und Verfügbarkeit seiner Dokumente zu erreichen.

    Hierfür benötigt es lediglich einen eigens aufgesetzten Server. Grundsätzlich ist es egal ob man diesen mit einem zentralen Versionskontrollsystem wie Subversion, oder einem dezentralen System mittels Git  installiert.

    In Betrachtung der Möglichkeiten der Versionierung und Nachvollziehbarkeit, wer welche Änderungen am Dokument vorgenommen hat, sind diese durchaus den Online – Lösungen überlegen, die häufig nur eine gewisse Anzahl an Änderungen in der Versionshistorie abspeichern, während man bei SVN & Co alle Änderungen von Beginn des Dokuments einsehen kann.

    Der Nachteil liegt eher bei der Zusammenarbeit in Echtzeit. Man kann hier nicht direkt die Änderungen am Dokument so komfortabel verfolgen, wenn man nicht ständig Updates der Quelldateien machen möchte. Hier sind die Online – Tools deutlich im Vorteil.

    Im Gegenzug ist man bei der Projektgröße oder der Anzahl an Mitarbeitern am Projekt auf keinerlei Limitierungen von fremden Anbietern angewiesen, sondern einzig auf die Limitierungen die der selbst aufgesetzte Server besitzt.

    Bei freiesMagazin setzt man ebenfalls auf die eigene Hosting – Lösung mit einem Subversion – Server, da man die eigenen Daten und die der Autoren nicht aus der Hand geben will.

    5. Mai 2012

    Nach meinem Upgrade auf Lubuntu 12.04 stellten sich, wenig überraschend, die gleichen Probleme wie mit Debian Sid ein. Die neuesten Nvidia-Treiber 295.40 verursachen bei mir, Kero und wahrscheinlich noch einer Reihe anderer Leute Verzögerungen beim Verschieben von Anwendungen, die teilweise bis zum Einfrieren des gesamtes Desktops führen können.

    Das Problem ist bekannt und betrifft unter anderem Geforce 6, 7 oder 8800GTX/GTS Karten. Ich benutze jedoch eine Geforce 9600 GT, die bis zum Update auf Lubuntu 12.04 einwandfrei funktionierte.

    Seid ihr von ähnlichen Problemen betroffen, habt ihr folgende Optionen zur Hand.

    1. Nvidia-Treiber komplett entfernen

    sudo aptitude purge nvidia-current

    Die Treiber lassen sich mit diesem Befehl komplett entfernen. Nach einem Neustart wird der Nouveau-Treiber aktiv, dessen Performance in der Regel für “normalen” Desktopbetrieb ohne anspruchsvolle 3D-Spiele oder Compiz ausreichend ist.

    2. Downgrade der Nvidia-Treiber von Precise auf Oneiric

    Für diverse Setups sind weiterhin die Nvidia-Treiber notwendig. In diesem Fall könnt ihr einen Downgrade von Nvidia 295.40 (Precise) auf 280.13 (Oneiric) in Erwägung ziehen.

    Ein Downgrade kann zu Problemen und anderen Inkompatibilitäten führen. Jetzt wäre der richtige Zeitpunkt für ein Backup. Wer sich bei den folgenden Schritten unsicher ist, sollte sie nicht ausführen!

    Öffnet die /etc/apt/sources.list mit eurem bevorzugten Editor und schaltet das alte Apt-Repositorium für Oneiric und die “restricted”-Sektion frei, indem ihr diese Zeilen hinzufügt.

    deb http://de.archive.ubuntu.com/ubuntu/ oneiric main restricted
    deb http://security.ubuntu.com/ubuntu oneiric-security main restricted

    Nvidia-Treiber downgraden

    sudo aptitude update
    sudo aptitude -t oneiric install nvidia-current

    Apt warnt vor dem Downgrade, dass das virtuelle Paket xorg-video-abi-10 nicht gefunden werden kann. Mit “n” lehnt ihr die erste Lösung ab und akzeptiert die zweite. Dies solltet ihr nur tun, wenn ihr auf die zum Entfernen markierten Pakete auch tatsächlich verzichten könnt. Der Vorgang sah bei mir so aus:

    sudo aptitude -t oneiric install nvidia-current
    Die folgenden Pakete haben verletzte Abhängigkeiten:
     nvidia-current : Hängt ab von: xorg-video-abi-10 , welches ein virtuelles Paket ist.
    Die folgenden Aktionen werden diese Abhängigkeiten auflösen:
    
         Beibehalten der folgenden Pakete in ihrer aktuellen Version:
    1)     nvidia-current [Nicht installiert]                        
    
    Diese Lösung akzeptieren? [Y/n/q/?] n
    Die folgenden Aktionen werden diese Abhängigkeiten auflösen:
    
          Entfernen der folgenden Pakete:
    1)      xserver-xorg-input-all
    2)      xserver-xorg-input-synaptics
    3)      xserver-xorg-video-all
    4)      xserver-xorg-video-sisusb
    5)      xserver-xorg-video-tdfx
    6)      xserver-xorg-video-trident
    7)      xserver-xorg-video-vesa
    
    Downgrade der folgenden Pakete:
    9)      xorg [1:7.6+12ubuntu1 (now, precise) -> 1:7.6+7ubuntu7.1 (oneiric)]
    10)     xserver-xorg [1:7.6+12ubuntu1 (now, precise) -> 1:7.6+7ubuntu7.1 (oneiri
    11)     xserver-xorg-core [2:1.11.4-0ubuntu10.1 (now, precise-updates) -> 2:1.
    
    usw.

    Nach dem Downgrade ist es am sinnvollsten die neuen Nvidia- und Xserver-Pakete auf “Halt” zu setzen, damit sie beim nächsten Update nicht erneuert werden.

    sudo aptitude hold '~nnvidia'
    sudo aptitude hold '~nxserver'

    Welche Pakete das genau sind, erfahrt ihr mit

    aptitude search '~ahold'

    In meinem Fall hat das Downgrade das Problem vollständig beseitigt und das System läuft stabil. Ihr solltet nun von Zeit zu Zeit überprüfen, ob es eine neuere Nvidia-Version gibt, die das Problem lösen kann.

    Die Pakete lassen sich mit

    sudo aptitude unhold '~nnvidia'
    sudo aptitude unhold '~nxserver'

    wieder zum Aktualisieren freigeben.

    Update: 06.05.2012

    3. Upgrade auf nvidia-current in Quantal Quetzal

    Als dritte Möglichkeit könnt ihr den Nvidia-Treiber auf die aktuelle Version in Ubuntu “Quantal Quetzal” bringen. (z.Z. 295.49). Dazu ersetzt ihr das Wort “oneiric” in den vorhergehenden Schritten durch “quantal”.

    Bei Lubuntu 12.04 und meiner Geforce 9600 GT funktionierten alle drei nur die ersten beiden Möglichkeiten. Nachdem ich jetzt noch etwas länger mit 295.49 experimentiert habe, treten ab und an immer wieder Ruckler und Verzögerungen beim Verschieben von Fenstern auf. Für mich ist daher diese Version nicht die richtige Lösung.

    Bisher setzte ich auf meinem Lenovo Thinkpad Edge E320 das Programm ThinkFan ein, um den Lüfter ruhig zu stellen. Da das Programm jedoch einen sehr eingeschränkten Funktionsumfang besitzt und deshalb zum Beispiel nicht für jeden Sensor eine Lüftergeschwindigkeit festgelegt werden kann, habe ich mich nach einer Alternative umgesehen. Das alternative Programm, das ich gefunden habe, hört auf den Namen tpfanco und ist eine Weiterentwicklung von tpfand, weshalb letzterer Name im Artikel des öfteren fallen wird (tpfanco und tpfand sind in diesem Artikel also synonym).

    Installation

    Beginnen wir mit der Installation. Dazu laden wir uns zuerst einmal tpfanco herunter. Zu finden ist das Programm bei Google Code. Ich persönlich habe lediglich die Pakete tpfand_0.95.2_all.deb und tpfan-admin_0.96.2.deb heruntergeladen, da ich meine Einstellungen lieber selber festlege und deshalb keine vorgefertigten Profile brauche. Wer gerne ein vorgefertigtes Profil verwenden möchte (falls für sein Thinkpad verfügbar), der kann gerne auch noch das Paket  tpfand-profiles_20120428_all.deb herunterladen. Die Installation erfolgt einfach über einen Doppelklick auf das jeweilige Paket durch das Software-Center.

    Verwendung

    Tpfand startet automatisch bei jedem Systemstart. Allerdings muss es, bevor es den Lüfter steuert, erst noch konfiguriert werden. Dazu öffnet ihr nun tpfan-admin, indem ihr folgendes in euer Terminal eingebt:

    gksudo tpfan-admin

    Tfand erlaubt umfangreiche Einstellungsmöglichkeiten

    Es öffnet sich dann die grafische Oberfläche des Programms, wo ihr tpfand unter anderem aktivieren und die Lüfterstufen festlegen könnt. Meine Einstellungen findet ihr links im Bild. Ich habe das Programm so eingestellt, das es bis 65°C ein Starten des Lüfters verhindert. Danach übernimmt dann das BIOS, so dass keine Überhitzung droht. Ich fahre mit diesen Einstellungen sehr gut und vor allem völlig lautlos – der SSD sei Dank.

     

    Am Ende muss ich noch anmerken, dass es nicht ganz ungefährlich ist, in die Lüftersteuerung einzugreifen. Aufgrund der daraus resultierenden höheren Temperaturen verkürzt sich die Lebensdauer der einzelnen Komponenten. Es ist daher wichtig, dass sich die Temperaturen immer in den zulässigen Spezifikationen befinden. Leider funktioniert die Software zudem nicht mit allen Thinkpads, so wird zum Beispiel die SL-Serie nicht unterstützt. Ob das Programm auf deinem Thinkpad funktioniert, kannst du testen, indem du in deinem Terminal

    lsmod | grep pad

    eingibst. Wenn thinkpad_acpi angezeigt wird, ist dein Thinkpad kompatibel.

    Nach zahllosen Versuchen, meinen HTPC mit XBMC auch ohne Bildschirm starten zu lassen, ist mir wohl heute endlich der Durchbruch geglückt. Dabei war die Lösung denkbar einfach, es hat lediglich ein Befehl zur automatischen Wahl des Ausgangs gefehlt UND zwei Zeilen zur Festlegung des Ausgangs waren überflüssig bzw. fehl am Platz.

    Meine fertige xorg.conf sieht nun wie folgt aus:

    Section "ServerLayout"
    Identifier "aticonfig Layout"
    Screen 0 "aticonfig-Screen[0]-0" 0 0
    EndSection

    Section "Module"
    EndSection

    Section "Monitor"
    Identifier "aticonfig-Monitor[0]-0"
    Option "VendorName" "ATI Proprietary Driver"
    Option "ModelName" "Generic Autodetecting Monitor"
    Option "DPMS" "true"
    EndSection

    Section "Device"
    Identifier "aticonfig-Device[0]-0"
    Driver "fglrx"
    Option "Capabilities" "0x00000800"
    Option "HWCursor" "false"
    Option "MonitorLayout" "AUTO,AUTO"
    #BusID "PCI:0:1:0"
    EndSection

    Section "Screen"
    Identifier "aticonfig-Screen[0]-0"
    Device "aticonfig-Device[0]-0"
    Monitor "aticonfig-Monitor[0]-0"
    DefaultDepth 24
    SubSection "Display"
    #Viewport 0 0
    Depth 24
    EndSubSection
    EndSection




    Wichtig dabei:
    Option "MonitorLayout" "AUTO,AUTO"
    hinzugefügt und folgende zwei entfernt (bzw. hier auskommentiert):
    #BusID "PCI:0:1:0"
    #Viewport 0 0

    Nun kann ich endlich meinen HTPC mittels Android und ohne laufendes Fernsehgerät bedienen. In diesem Zusammenhang bestimmt auch interessant: Youtube an XBMC senden

    Was lange währt, wird endlich gut ;-)

    Interessant ist in diesem Zusammenhang, dass sich aber XBMC weiterhin weigert, den HDFury anzusprechen was bedeutet, dass noch immer kein Start erfolgt, wenn die HDMI-Matrix als Ausgang besagtes Gerät ausgewählt hat.
    Das ist allerdings nicht weiter schlimm, da ich den Eingang auch nach dem Einschalten des HTPC wechseln kann bzw. meiner Logitech Harmony einfach entsprechendes Macro beim Start einprogrammiere.

    Nach zahllosen Versuchen, meinen HTPC mit XBMC auch ohne Bildschirm starten zu lassen, ist mir wohl heute endlich der Durchbruch geglückt. Dabei war die Lösung denkbar einfach, es hat lediglich ein Befehl zur automatischen Wahl des Ausgangs gefehlt UND zwei Zeilen zur Festlegung des Ausgangs waren überflüssig bzw. fehl am Platz.

    Meine fertige xorg.conf sieht nun wie folgt aus:

    Section “ServerLayout”
    Identifier “aticonfig Layout”
    Screen 0 “aticonfig-Screen[0]-0″ 0 0
    EndSection

    Section “Module”
    EndSection

    Section “Monitor”
    Identifier “aticonfig-Monitor[0]-0″
    Option “VendorName” “ATI Proprietary Driver”
    Option “ModelName” “Generic Autodetecting Monitor”
    Option “DPMS” “true”
    EndSection

    Section “Device”
    Identifier “aticonfig-Device[0]-0″
    Driver “fglrx”
    Option “Capabilities” “0×00000800″
    Option “HWCursor” “false”
    Option “MonitorLayout” “AUTO,AUTO”
    #BusID “PCI:0:1:0″
    EndSection

    Section “Screen”
    Identifier “aticonfig-Screen[0]-0″
    Device “aticonfig-Device[0]-0″
    Monitor “aticonfig-Monitor[0]-0″
    DefaultDepth 24
    SubSection “Display”
    #Viewport 0 0
    Depth 24
    EndSubSection
    EndSection

    Wichtig dabei:
    Option “MonitorLayout” “AUTO,AUTO”
    hinzugefügt und folgende zwei entfernt (bzw. hier auskommentiert):
    #BusID “PCI:0:1:0″
    #Viewport 0 0

    Nun kann ich endlich meinen HTPC mittels Android und ohne laufendes Fernsehgerät bedienen. In diesem Zusammenhang bestimmt auch interessant: Youtube an XBMC senden

    Was lange währt, wird endlich gut ;)

    Interessant ist in diesem Zusammenhang, dass sich aber XBMC weiterhin weigert, den HDFury anzusprechen was bedeutet, dass noch immer kein Start erfolgt, wenn die HDMI-Matrix als Ausgang besagtes Gerät ausgewählt hat.
    Das ist allerdings nicht weiter schlimm, da ich den Eingang auch nach dem Einschalten des HTPC wechseln kann bzw. meiner Logitech Harmony einfach entsprechendes Macro beim Start einprogrammiere.

    Kernel Updates am Server seiner Wahl einspielen und dann...warten. Warten auf die erlösenden ICMP Antworten. Oder bootet die Kiste doch nicht? Alles dauert verdächtig lange. Auch nach 10 Minuten noch nichts. Gerade wenn man die Zugangsdaten fürs DRAC/ILO rausgekramt hat zeigt sich: Filesystem Check.

    Extended Filesystems machen an den folgenden 2 Punkten fest wann fsck's passieren:

    • Maximale Anzahl von Mounts
    • Zeitliche Abstände zwischen den Routine Checks

    Die Informationen stehen im Superblock einer Parition. Das Tool dumpe2fs stellt diese zur Verfügung:

    $ dumpe2fs -h /dev/sda1 
    

    Das ganze hab ich dann verskriptet. Es "scanned" alle gemounteten ext Parititonen und warnt einen, falls die maximalen Mounts oder die zyklischen Checks anstehen.

    Das sieht dann unter Umständen so aus:

    1
    2
    3
    
    WARNING: Max mount count on /dev/sda1 has been reached. (29/29)
    WARNING: /dev/sda1 has reached the next periodically filesystemcheck. (Sa Apr 7 13:37:58 2012)
    RESULT: A fsck will be executed at the next reboot for /dev/sda1.

    Natürlich für jede gefundene Partition. Um das jetzt noch am besten irgendwie zu automatisieren hab ich mich entschieden das in apt zu integrieren.

    1
    2
    
    $ vim /etc/apt/apt.conf.d/09extverfiy
    DPkg::Pre-Install-Pkgs   { "if [ -x /usr/local/bin/ext-verify.sh ]; then echo 'Verifying ext Filesystems' ; /usr/local/bin/ext-verify.sh ; fi"; };

    Bei jedem apt-get/aptitude wird das nun ausgeführt.

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    
    $ aptitude install whois
    Die folgenden NEUEN Pakete werden zusätzlich installiert:
      whois
    0 Pakete aktualisiert, 1 zusätzlich installiert, 0 werden entfernt und 0 nicht aktualisiert.
    Muss 0 B/64,9 kB an Archiven herunterladen. Nach dem Entpacken werden 406 kB zusätzlich belegt sein.
    Verifying ext Filesystems
    RESULT: Everything's fine on /dev/sda1.
    Vormals abgewähltes Paket whois wird gewählt.
    (Lese Datenbank ... 48680 Dateien und Verzeichnisse sind derzeit installiert.)
    Entpacken von whois (aus .../whois_5.0.10_amd64.deb) ...
    Trigger für man-db werden verarbeitet ...
    whois (5.0.10) wird eingerichtet ...

    LPS Logo 150x150Ich schüttle jedes Mal wieder den Kopf, wenn ich von LPS (Lightweight Portable Security) lese. Das ist eine Linux-Distribution, die Privatsphäre schützen und dem Anwender eine möglichst sichere Arbeitsumgebung zur Verfügung stellen soll. Eigentlich ist da überhaupt nichts verkehrt daran – außer das die Distribution vom Verteidigungs-Ministerium der USA entwickelt wird. USA, Militär und Schutz der Privatsphäre passt irgendwie nicht zusammen.

    Im Endeffekt handelt es sich bei Ausgabe 1.3.4 um eine reine Wartungs-Ausgabe, mit kleinen Neuerungen. Hinzugekommen sind zum Beispiel die Firefox-Erweiterungen HTTPS Everywhere 2.0.3 und NoScript 2.3.9. Der Mozilla-Browser selbst wurde auf 10.0.4 ESR aktualisiert. Gleiches gilt für Thunderbird.

    Wegen Inkompatibilitäten mit den neuen Adobe-Bibliotheken wurde Flash auf 11.1.102.63 degradiert. Man will das Problem mit dem nächsten Kernel-Update und Version 1.4 aus der Welt schaffen. Man könne außerdem Flash mittels NoScript komplett deaktivieren, wenn es Zicken macht.

    Aktualisiert wurden die Applikationen Encryption Wizard application auf 3.3.3, OpenSSL auf 0.9.8w, OpenSSH auf 6.0p1, Java auf 1.6u32 und der Citrix-Client auf 12.1.0.203066. Die Entwickler haben die SameTime-Unterstützung für Pidgin repariert. Diese wurde aus Versehen bei LPS 1.3.3 vergessen.

    Im Menü Connectivity wurde MultiPin 0.1.2 hinzugefügt. Die Firefox-Sicherheits-Einstallungen wurden auf  security.ssl.allow_unrestricted_renego_everywhere_temporarily_available_pref umgestellt.

    Die Distribution an sich wäre gar nicht so schlecht, wenn sie nicht diesen komischen Beigeschmack hätte. Persönlich würde ich lieber auf eine Alternative wie die vergessliche Linux-Distribution TAILS (The Amnesic Incognito Live System) zurückgreifen, um meine Privatsphäre so gut wie möglich zu schützen. Zur Erinnerung: TAILS leitet sämtliche Netzwerkanfragen durch TOR (The Onion Router).

    Lighweight Portable Security 1.3.4 gibt es im Download-Bereich der Projektseite: LPS-1.3.4_public.iso (185 MByte), LPS-1.3.4_public_deluxe.iso (394 MByte)

    Lightweight Portable Security 1.2.2

    Vom Verteidigungs-Ministerium der USA

    4 Fotos


    Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

    Seit ein paar Tagen nervt mich auf der Arbeit Firefox alle 2-3 Minuten ich möge mich doch bitte am Proxy der Firma authentifizieren. Natürlich habe ich dies schon längst getan.

    Mit einem meiner Lieblingsspielzeuge (Wireshark), konnte ich aber relativ schnell feststellen woher dieses nervige Problem kommt: Das Plugin HTTPS Everywhere versucht regelmäßig eine Verbindung zu einem Server der eff herzustellen, dies dient der SSL Observatory welche in den Optionen von diesem Plugin ausgeschaltet werden kann.

    Bis dieser Bug im Plugin/Addon gefixt wurde sollte man dies tun, außer man hat Lust alle 2-3 Minuten seine Proxyauthentifizierung erneut durchzuführen ;-)

    Wer einen Proxy ohne Authentifizierung verwendet merkt von diesem Problem natürlich nichts.

    Seit ein paar Tagen nervt mich auf der Arbeit Firefox alle 2-3 Minuten ich möge mich doch bitte am Proxy der Firma authentifizieren. Natürlich habe ich dies schon längst getan.

    Mit einem meiner Lieblingsspielzeuge (Wireshark), konnte ich aber relativ schnell feststellen woher dieses nervige Problem kommt: Das Plugin HTTPS Everywhere versucht regelmäßig eine Verbindung zu einem Server der eff herzustellen, dies dient der SSL Observatory welche in den Optionen von diesem Plugin ausgeschaltet werden kann.

    Bis dieser Bug im Plugin/Addon gefixt wurde sollte man dies tun, außer man hat Lust alle 2-3 Minuten seine Proxyauthentifizierung erneut durchzuführen ;-)

    Wer einen Proxy ohne Authentifizierung verwendet merkt von diesem Problem natürlich nichts.

    Seit ein paar Tagen nervt mich auf der Arbeit Firefox alle 2-3 Minuten ich möge mich doch bitte am Proxy der Firma authentifizieren. Natürlich habe ich dies schon längst getan.

    Mit einem meiner Lieblingsspielzeuge (Wireshark), konnte ich aber relativ schnell feststellen woher dieses nervige Problem kommt: Das Plugin HTTPS Everywhere versucht regelmäßig eine Verbindung zu einem Server der eff herzustellen, dies dient der SSL Observatory welche in den Optionen von diesem Plugin ausgeschaltet werden kann.

    Bis dieser Bug im Plugin/Addon gefixt wurde sollte man dies tun, außer man hat Lust alle 2-3 Minuten seine Proxyauthentifizierung erneut durchzuführen ;-)

    Wer einen Proxy ohne Authentifizierung verwendet merkt von diesem Problem natürlich nichts.

    4. Mai 2012

    Mit der besseren Integration von Xen in die aktuelle LTS Version von Ubuntu bietet es sich an, als Virtualisierungslösung auf den freien Xen zu setzen, wenn es darum geht, einen Windows TS (Terminal Services) oder RDS (Remote Desktop Services) Server im kleinen SOHO Netzwerk zu virtualisieren. Dieser Workshop setzt einen funktionierenden Xen-Host voraus, d.h. eine paravirtualisierte domU konnte bereits erfolgreich gestartet werden.

    Voraussetzungen prüfen

    Um Windows auf Xen laufen lassen zu können, muss die “Hardware Virtual Machine” ran. Die sollten moderne Prozessoren beherrschen, tun sie aber nicht immer. Ein guter Ansatz ist es. den Inhalt von /proc/cpuinfo nach vm zu durchsuchen. Taucht hier vme oder svm auf, schaut es gut aus. Wenn nicht: Zuerst ins BIOS schauen und dort Hardwarevirtualisierung aktivieren – ggf. einen Blick ins Xen-Wiki werfen: wiki.xensource.com/xenwiki/HVM_Compatible_Processors.

    grep vm /proc/cpuinfo

    Installations-ISO besorgen

    Für die Installation benötigen wir ein Verzeichnis für die VM und das Installations-ISO. Legen wir das Verzeichnis und eine leere Festplatte als Sparse File an:

    WIN2008DIR=/usr/local/xendomains/win2008
    mkdir -p $WIN2008DIR
    dd if=/dev/zero bs=1M count=1 of=$WIN2008DIR/xvda.img seek=39999

    Das ISO des Windows besorge ich mir von technet.microsoft.com/en-us/evalcenter/dd459137.aspx und kopiere es nach $WIN2008DIR/win2008.iso.

    Konfigurationsdatei für die Installation

    Meine Konfigurationsdatei /usr/local/xendomains/win2008/xen.cfg für die Installation sieht folgendermaßen aus:

    kernel = '/usr/lib/xen-default/boot/hvmloader'
    builder='hvm'
    memory = 1024
    xen_platform_pci=1
    # Should be at least 2KB per MB of domain memory, plus a few MB per vcpu.
    shadow_memory = 16
    name = "win2008"
    vif = [ 'type=ioemu, bridge=xenbr0, mac=00:16:17:12:23:01, model=e1000' ]
    acpi = 1
    apic = 1
    disk = [ 'file:/usr/local/xendomains/win2008/xvda.img,xvda,w', 
             'file:/usr/local/xendomains/win2008/win2008.iso,xvdc:cdrom,r' ]
    device_model = '/usr/lib/xen-default/bin/qemu-dm'
    # boot on floppy (a), hard disk (c) or CD-ROM (d) 
    # default: hard disk, cd-rom, floppy
    boot="dc"
    sdl=0
    vnc=1
    vncconsole=1
    vncpasswd=''
    serial='pty'
    usbdevice='tablet'

    Der erste Start

    Nun geht es an den ersten Start:

    xm create /usr/local/xendomains/win2008/xen.cfg

    Lautet die Ausgabe Error: Domain 'win2008' does not exist. ist ein Blick in die Logdatei /var/log/xen/qemu-dm-win2008.log angeraten. Steht dort etwas wie Could not read keymap file: '/usr/share/qemu/keymaps/en-us' hilft meist ein Softlink:

    ln -sf /usr/share/qemu-linaro /usr/share/qemu

    Lautet die Ausgabe: Started domain win2008 (id=4) können Sie lokal mit dem VNC Viewer mit der Domain verbinden:

    vncviewer localhost

    In meinem Fall handelte es sich um einem kopflosen Server. Da musste ich mir den SSH-Port zunächst per Port-Weiterleitung auf den lokalen Rechner holen. 10.76.23.55 ist der Server, auf dem Xen läuft und die DomU eingerichtet werden soll:

    ssh -L 5900:localhost:5900 root@10.76.23.55

    In einem anderen Terminal kann ich dann auf dem PC, der die SSH-Verbindung initiiert hat die VNC Konsole öffnen: vncviewer localhost. Und bitte keine Panik, wenn während der Installation die VNC-Verbindung mal abreisst. Bei Reboots oder Änderungen der Grafikauflösung ist das normal.

    Installation der PV-Treiber

    Eine deutlich bessere Performance von Netzwerk und virtuellen Festplatten erhalten Sie nach Installation der GPL PV-Treiber. Sie finden diese unter www.meadowcourt.org/downloads/ Laden Sie das aktuellste gplpv*-Paket für Ihr Windows und installieren Sie dieses. Ist die Installation abgeschlossen, fahren Sie das Windows herunter und ändern Sie die Konfigurationsdatei:

    vif = [ 'type=ioemu, bridge=xenbr0, mac=00:16:17:12:23:02, type=paravirtualized' ]
    # default: hard disk, cd-rom, floppy
    boot="c"

    Feintuning zum Schluss

    Ist der Windows-Server fertig eingerichtet und das Login mittels rdesktop funktioniert, kann die lokale Serverkonsole per VNC deaktiviert werden:

    vnc=0
    vncconsole=0

    Im Falle eines Falles (Server vergisst Netzwerkeinstellungen o.ä.) muss die betreffende Domain dann natürlich abgewürgt werden und die beiden Parameter müssen wieder auf 1 gesetzt werden. Aus Sicherheitsgründen ist es aber nicht ratsam, die VNC-Konsole dauerhaft zugreifbar zu haben.

    Bislang habe ich Ubuntu immer mit den Vanilla-Sourcen von Xen eingerichtet, einfach weil der Support für Dom0 (priviligierte Domain) teils fehlte, teils veraltet und instabil war. 12.04 ist die erste LTS-Version, die sich zufriedenstellend “out of the box” als Domain 0 einrichten lässt. Mit verantwortlich ist, dass sich Kernel ab Version 3.0 auf dem Hypervisor Xen starten lassen, gepatchte spezielle Kernel sind heute überflüssig. Die Einrichtung ist recht geradlinig, lediglich einige Kleinigkeiten sind zu beachten.

    Weniger geradlinig ist noch immer der Betrieb: Der Einsatz von HVM-Gästen benötigt VME- bzw. SVM-Erweiterungen des Prozessors (in billigen PCs hart per BIOS deaktiviert) und einige Grafikkarten mit KMS bereiten Ärger, genauso wie die proprietären Grafiktreiber von AMD und nVidia. Um schnell ein Demo-Virtualisierungssystem einzurichten, taugt Xen nicht (dafür sind VMware Player oder VirtualBox viel besser geeignet). Wer dagegen extrem flexible Servervirtualisierung mit geringem Overhead und hoher Flexibilität sucht, wird mit Xen jedoch fündig.

    Software-Installation

    Installiert wird Xen über das Paket xen-hypervisor-4.1-amd64, alle Abhängigkeiten werden dann nachgezogen. kpartx wird für die Einrichtung der domUs benötigt:

    sudo apt-get install xen-hypervisor-4.1-amd64 kpartx

    Während der Installation fügt Ubuntu einen Bootmenüeintrag “Xen 4.1-amd64″ hinzu, über den Sie in einem Untermenü landen. Das ist ein guter Ansatz, solange mit den Bootoptionen herumzuspielen (vga=normal nomodeset usw.) bis der Server sauber hochfährt und sich stabil benutzen lässt.

    GRUB-Konfiguration anpassen

    Ich habe mich für eine etwas unorthodoxe GRUB-Konfiguration entschieden. Ein Script /etc/grub.d/98xen sucht den letzten Linux-Kernel und sein Initramfs und fügt für diesen einen Eintrag in der obersten Ebene des GRUB-Menüs ein. Anzupassen sind UUID und Parameter der Module-Zeile. Bitte nach Änderungen das Script einmal im Terminal ausführen, um zu sehen, ob die Ausgabe plausibel ist. Wer bessere Ideen hat, maile mir diese:

    #!/bin/sh
    
    LINUXKERNEL=` ls /boot/vmlinuz-3.2* | tail -n1 `
    INITRAMFS=` echo $LINUXKERNEL | sed 's/vmlinuz/initrd.img/g' ` 
    XENKERNEL=` ls /boot/xen-4.1* | tail -n1 `  
    UUID=eb7a7f54-291f-420f-9f26-7d753c857a3d
    
    exec tail -n +15 $0 | sed 's%XENKERNEL%'${XENKERNEL}'%g' | \
            sed 's%LINUXKERNEL%'${LINUXKERNEL}'%g' | \
            sed 's%INITRAMFS%'${INITRAMFS}'%g' | \
            sed 's%ROOTUUID%'${UUID}'%g' | \
            sed 's%^#%%g'
    
    # Now the template - starting in line 15 - # will be removed
    #menuentry "Xen+PVOPS" {
    #        insmod ext2
    #        set root=(hd0,1)
    #        search --no-floppy --fs-uuid --set=root ROOTUUID
    #        multiboot XENKERNEL dummy=dummy
    #        module LINUXKERNEL root=UUID=ROOTUUID ro nomodeset vga=normal
    #        module INITRAMFS dummy=dummy
    #}

    Damit das ganze funktioniert muss das Script ausführbar sein:

    chmod 0755 /etc/grub.d/98xen

    nun noch in der Datei /etc/default/grub den Standard ändern:

    # GRUB_DEFAULT=0
    GRUB_DEFAULT='Xen+PVOPS'

    Nach einem

    sudo update-grub

    und dem folgenden obligatorischen Reboot sollte das Kommando xm dmesg zeigen, dass unterhalb von Linux Xen 4.1 läuft. Das war die halbe Miete.

    Netzwerk für Xen einrichten

    Xen benötigt eine Netzwerkbrücke. Die MAC-Adressen der unpriviligierten Domains werden dabei an ein bestimmtes Netzwerkinterface gebunden – in Heimnetzwerken und Büronetzen, in denen Sie die Kontrolle haben, ist das die Standardeinstellung. Alternativ gibt es die Möglichkeit, zu den unpriviligierten Domains zu routen (das behandle ich an dieser Stelle nicht). Passen wir also unsere /etc/network/interfaces an:

    # The loopback network interface
    auto lo
    iface lo inet loopback
    
    # The primary network interface
    auto eth0
    iface eth0 inet dhcp
    
    auto xenbr0
    iface xenbr0 inet dhcp
    bridge_ports eth0
    bridge_stp off
    bridge_fd 0

    Alternativ gerne mit fester IP, Adresse, Gateway und Maske werden vom primären Interface kopiert:

    # The loopback network interface
    auto lo
    iface lo inet loopback
    
    # The primary network interface
    auto eth0
    iface eth0 inet static
    
    auto xenbr0
    iface xenbr0 inet static
        address 10.76.23.55
        netmask 255.255.255.0
        gateway 10.76.23.252 
        dns-nameservers 8.8.8.8 10.76.23.252
        bridge_ports eth0
        bridge_stp off
        bridge_fd 0

    Danach bitte nochmal Reboot oder wenigstens Neustart des Dienstes Networking.

    Meine erste DomU

    Meine DomUs (unpriviligierte Domains) liegen unter /usr/local/xendomains. Die zum Testen aufgesetzte unter /usr/localxendomains/12.04ltstest. Sie verwendet den Netinstaller von Ubuntu:

    DOMUDIR=/usr/local/xendomains/12.04ltstest
    mkdir -p $DOMUDIR
    wget -O $DOMUDIR/kernel-install.img http://archive.ubuntu.com/ubuntu/dists/precise/main/installer-amd64/current/images/netboot/xen/vmlinuz
    wget -O $DOMUDIR/initrd-install.img http://archive.ubuntu.com/ubuntu/dists/precise/main/installer-amd64/current/images/netboot/xen/initrd.gz
    dd if=/dev/zero bs=1M count=1 seek=16383 of=$DOMUDIR/xvda.img

    Das Image xvda.img ist ein Sparse File. Es erscheint zwar 16GB groß, nimmt diesen Platz aber zunächst nicht ein. Jetzt noch ne Configdatei $DOMUDIR/xen.cfg:

    kernel = "/usr/local/xendomains/12.04ltstest/kernel-install.img"
    ramdisk = "/usr/local/xendomains/12.04ltstest/initrd-install.img"
    memory = 512
    vcpus = 1
    name = "ltstest"
    vif = [ 'mac=00:16:00:00:42:23' ]
    disk = [ 'file:/usr/local/xendomains/12.04ltstest/xvda.img,xvda,w'  ]
    root = ""
    extra = "console=hvc0 ro xencons=tty"

    Nun wird die DomU gestartet. Wichtig ist das -c, denn damit wird die Xen-Konsole aufs laufende Terminal geschaltet:

    xm create -c $DOMUDIR/xen.cfg

    Während der Installation sollte man noch darauf achten, das Paket openssh-server zu installieren, denn die Xen-Konsole ist äußerst unpraktisch (kennt nur 80×25 etc.). Nach der Installation rebootet das System. Dummerweise mit dem Installationskernel. Würgen wir es ab:

    xm destroy ltstest

    Eine dauerhafte DomU

    Es gibt Möglichkeiten, den Kernel und seine Ramdisk vom Festplattenimage zu laden. Diese gefallen mir jedoch nicht, weil sie gute Einfallspunkte für Rootkits sind. Ich kopiere daher Kernel und Initrd. Zunächst erstelle ich ein Loop-Device für das Festplattenimage (die DomU darf nicht mehr laufen!), wofür wir ein freies Loopdevice brauchen (hier wurde /dev/loop0 gefunden):

    losetup -f
    losetup /dev/loop0 $DOMUDIR/xvda.img

    Linux kommt mit Partitionen auf Loopdevices auf Anhieb nicht so toll klar. Hier kommt der Device-Mapper ins Spiel, der Partitionen auf Loop-Devices erkennt:

    kpartx -a /dev/loop0
    mkdir -p /tmp/xen-domU
    mount /dev/mapper/loop0p1 /tmp/xen-domU

    Nun kopieren wir den Kernel und das Initramfs:

    cp -v /tmp/xen-domU/boot/vmlinuz-3.2.0-24-generic $DOMUDIR/kernel.img
    cp -v /tmp/xen-domU/boot/initrd.img-3.2.0-24-generic $DOMUDIR/initrd.img

    Zum Abschluss gilt es noch, die Konfiguration der domU anzupassen:

    kernel = "/usr/local/xendomains/12.04ltstest/kernel.img"
    ramdisk = "/usr/local/xendomains/12.04ltstest/initrd.img"
    # ...
    # Je nach Partitionierung ist die root-Zeile ggf. anzupassen!
    root="/dev/xvda1"
    

    Dann kann das Loopdevice ausgehängt und aufgelöst werden – ich lasse erst alle Devices anzeigen und löse dann von hinten nach vorn:

    umount /tmp/xen-domU
    ls -lah /dev/mapper/loop0*
    dmsetup --remove /dev/mapper/loop0p5
    dmsetup --remove /dev/mapper/loop0p2
    dmsetup --remove /dev/mapper/loop0p1
    losetup -d /dev/loop0

    Nun steht dem Start der DomU mit “produktivem” Kernel nichts mehr im Wege. Dieses Mal ohne -c:

    xm create $DOMUDIR/xen.cfg

    In den nächsten Tagen werde ich mal auf eine Windows Server 2008 DomU eingehen (keine Angst, kostet nix, kann man 240 Tage am Stück gratis nutzen), was ein guter Einsatz für einen Xen-Host ist, der mit Samba Dateidienste für Windows und Linux anbietet und dank Windows Server 2008 auch Terminalserverdienste anbieten kann. Viel Spaß wünscht Mattias Schlenker!

    PS: Autoren gesucht! Wer sich zutraut, einigermaßen geordnet zu schreiben, darf sich gerne bei mir melden. Ich betreue derzeit die LINUX INTERN von Data Becker als “Projektleiter” und bin für diese Zeitschrift auf die Suche nach Autoren. Eure Schreibe muss nicht “schön” im schriftstellerischen Sinne sein, aber man muss erkennen, dass Ihr strukturiert denkt. Honorar gibt es natürlich auch.

      LaTeX ist allgemein als sehr leistungsfähiges Textsatzsystem bekannt. Doch nicht nur Dissertationen, Zeitschriften (z.B. das freieMagazin) oder Bücher lassen sich damit setzen, sondern auch Anschreiben für Firmen oder Bewerbungen. Wie man einen Lebenslauf relativ einfach mit LaTeX setzt, stelle ich nun vor.

      Besonders gut lässt sich das über das Makro moderncv bewerkstelligen, das man z.B. bei CTAN herunterladen kann. Durch eine umfangreiche Sammlung von Befehlen kann man sehr einfach einen sehr beeindruckenden Lebenslauf setzen. Ich habe mir hierzu als Beispiel Erika Mustermann ausgesucht.

      Lebenslauf gesetzt mit LaTeX und moderncv

      Im Kopf hat man ein paar Konfigurationsmöglichkeiten. Es gibt z.B. zwei Vorlagen für den Lebenslauf. Oben zu sehen ist die Variante casual. Weiterhin gibt es aber auch classic, der mir persönlich nicht so gut gefällt.

      Weiterhin hat man folgende Farbschemata zur Auswahl:

      • blue
      • green
      • orange
      • red
      • grey

      Mit moderncv sind schon einige interessante Befehle vorhanden. Hier eine Übersicht:
      \firstname{Erika}
      \familyname{Mustermann}
      \title{Lebenslauf}
      \address{Bahnhofsstr. 17}{54321 Musterstadt}
      \mobile{0151/ 12 345 678}
      \phone{09876/ 5 43 21}
      \email{erika.mustermann@email.de}
      \photo[5cm]{erikasbild}

      Die jeweiligen Befehle sollten offensichtlich sein. Beim Bild ist die Größe zu beachten, die Zahl gibt die Breite an. Wie bei LaTeX üblich wird die Dateiextention der Bilddatei weggelassen.

      Es gibt noch einige weitere Besonderheiten bei diesem Marko, etwa Sprachkenntnisse:
      \subsection{Sprachkenntnisse}
      \cvlanguage{Englisch}{gute Kenntnisse}{Berufspraxis}
      \cvlanguage{Französisch}{Grundkenntnisse}{Schule, 6 Jahre}

      Normale Lebenslaufeinträge können folgendermaßen gemacht werden:
      \cventry{Zeit}{Eintrag 1}{Eintrag 2}{Eintrag 3}{Eintrag 4}{Eintrag 5}
      \cvline{Zeit}{Eintrag 1}{Eintrag 2}

      Aufzählungen, einfach: \cvlistitem[symb]{text}
      Aufzählungen, zweispaltig:\cvlistdoubleitem[symb]{text}

      Den genauen Wortlaut des Dokuments, den Aufbau und die Vorlage befinden sich in einer ZIP-Datei.Eventuell aufkommende Fragen sollten darin geklärt werden.

      PS: Die „echten“ Daten sowie die Fotografie von Erika habe ich aus der Wikipedia.
      Weitere Infos zu moderncv gibt es hier:  http://frank.uvena.de/de/LaTeX/moderncv/

      Gimp Logo 150x150Was lange währt, wird endlich gut. GIMP (GNU Image Manipulation Program) 2.8 ist das Resultat von über drei Jahren Entwicklungszeit und die Software ist endlich da. Die Bildbearbeitungs-Software wird auch dann und wann als der kleine Photoshop für Linux bezeichnet. Sehen wir uns die wichtigsten Neuerungen im Überblick an:

      Einzelfenster-Modus

      GIMP - Einzelfenster-Modus

      Einzelfenster-Modus

      Das ist eine Funktion, auf die viele gewartet haben. Andere vermissten Sie jedoch gar nicht und waren mit dem Mehrfenstermodus glücklich. Gerade Ubuntu-Anwendern mit Unity dürfte der Einzelfenstermodus aber mehr als entgegen kommen. Das Schöne an der Sache ist, dass der Anwender die Wahl hat und zwischen den beiden Modi hin- und herschalten kann. Sollte sich ein Anwender für den Einzelfenstermodus entscheiden, merkt sich die Software diese Einstellung für den nächsten Neustart.

      Mehspalten-Dock-Fenster

      Gimp 2.8 Dockleiste entfernt

      Dockleiste entfernt (Quelle: gimp.org)

      GIMP 2.8 erlaubt es, andockbare Dialoge in mehreren Spalten zu vereinen. Um eine neue Spalte zu erschaffen, einfach einen andockbaren Dialog mittels Drag & Drop auf die vertikalen Kanten des Dock-Fensters ziehen. Besonders interessant ist das für Anwender von mehreren Bildschirmen. Einer könnte somit ein großes Dock-Fenster haben, während die ganzen Bilder auf dem anderen Monitor sind.

      Ebenso wurde die Docking-Leiste entfernt und die Menü-Schaltfläche für die Docks wurde nach oben verschoben. Somit spart man sich etwas Platz.

      Speichern und Exportieren

      Auf diese neue Funktion falle ich selbst noch immer herein. Auf einem meiner Rechner läuft noch GIMP 2.6 und auf dem anderen bereits GIMP 2.8 (also 2.7.x). Wenn man in der neuen Version auf Speichern klickt, bekommt man nur die Option des GIMP-eigenen XCF-Formats angeboten. Möchte man ein Bild zum Beispiel als PNG oder JPG speichern, dient dafür Exportieren (Umschalt+Strg+E). Das XCF-Format hat den Vorteil, dass auch alle Arbeitsschritte mit abgespeichert werden. Laut Versionshinweisen spart man sich so nervige Dialoge, wie zum Beispiel dass man das Bild auf eine Ebene vereinen müsse.

      Ebenen-Gruppen

      Ebenengruppen

      Ebenengruppen in GIMP 2.8

      For komplexe Ausarbeitungen ist eine flache Ebenen-Struktur sehr einschränkend. Mit GIMP 2.8 kannst Du Ebenen in Gruppen organisieren. Somit kannst Du die Ebenen in einer baumartigen Struktur verwalten. Ebenen-Gruppen lassen sich durch die GIMP Plugin API komplett Scripten.

      Tools mit Cairo gezeichnet

      Alle Tools, die auf Canvas rendern wurden nach Cairo portiert. Das erlaubt die Kreation von geschmeidigen Grafiken (Bildkantenglättung / Anti-Alias). Bis auf wenige Ausnahmen wurden auch alle Plugins auf Cairo portiert.

      Auf-Canvas Text Editieren

      Das Bearbeiten von Text erfolgt nun On-Canvas und nicht mehr in einem separaten Fenster. Neben den normalen Text-Funktionen, wie zum Beispiel Schriftart, Größe, bekommt der Anwender mehr Kontrolle über das Offset und Kerning. Ebenso lassen sich die Textfarben einer Auswahl festlegen. Mit einer Kombination aus Alt- und Pfeiltasten lassen sich Offset und Kerning ändern. Diese Funktione wurde laut eigener Aussage während des Google Summer of Code 2008 entwickelt und seitdem wesentlich verbessert.

      Änderungen bei Tastaturkürzeln

      Da die Tastaturkürzel Strg+E und Strg+Umschalt+E nun dem Exportieren von Bilder zugewiesen sind, wurden neue für “Fenster anpassen” (Strg+J) und “Bild in Fenster einpassen” (Ctrl+Shift+J) eingeführt.

      Einfache Mathematik bei Größenangaben

      GIMP 2.8: Mathematische Ausdrücke in der Größenangabe

      Mathematische Ausdrücke in der Größenangabe (Quelle: gimp.org)

      Wenn Du die Größe verändern möchtest, kannst Du nun einfach mathematische Ausdrücke verwenden. Im Größenänderungs-Dialog kannst Du nun zum Beispiel 50% eingeben. Ausdrücke wie ’30in + 40px’ und ’4 * 5.4in’ funktionieren ebenfalls.

      Verbesserungen bei Tool-Voreinstellungen

      Jedes Status eines Tools lässt sich nun speichern und mit einem klangvollen Namen versehen. Diese Voreinstellungen sind von einem neuen Tool-Presets-Dialog (dockbar) erreichbar. Somit ist es einfach, eine Vielzahl an Voreinstellungen zu verwalten und zu benutzen. Da jede dieser Einstellungen in einer separaten Datei abgespeichert wird, kann man diese natürlich auch weitergeben.

      Es gibt noch viele kleinere Verbesserungen in GIMP 2.8 und interessante Änderungen bei der Pinsel-Dynamik. Ebenso ist ein experimentelle Widget enthalten, dass sich speziell an Anwender von Grafik-Tablets richtet. Alle Neuerungen und Änderungen gibt es in Englischer Sprache in den Versionshinweisen. Den Quellcode für GIMP 2.8 kannst Du im Download-Bereich der Projektseite herunterladen.

      Wer GIMP 2.8 unter Ubuntu 11.10 “Oneiric Ocelot” oder 12.04 “Precise Pangolin” installieren möchte, kann das Launchpad von Otto Kesselgulasch nehmen. Das gilt natürlich auch für die entsprechenden Linux-Mint-Versionen oder andere Ubuntu-Derivate.

      1. sudo add-apt-repository ppa:otto-kesselgulasch/gimp
      2. sudo apt-get update
      3. sudo apt-get install gimp

      Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

      3. Mai 2012

      Jeder der schonmal Podcasts, Videos oder einfache Aufnahmen bearbeitet hat kommt um Audacity meist nicht herum. Audacity ist ein Audio-Bearbeitungs-Programm das OpenSource ist. Unter Linux sollten am besten die unfreien Codecs nachinstalliert werden, damit Audacity das meiste lesen kann. Für MP3-Support bietet sich der libmp3lame an.

      Ich habe vor kurzem an einem Projekt teilgenommen, was ich auch hier beschrieben habe. Mir ist beim Zusammenschneiden aller Parts dieses Hörspiels aufgefallen, dass Audacity unter Linux ein bisschen anders aussieht und auch schneller läuft. Beispielsweise konnte ich hier Zuhause mit einem halb so guten 64bit Prozessoren genau so schnell arbeiten wie mit einem 3GHz 64bit Prozessoren in der Schule auf Windows.

      Wer öfters Projekte schneidet und nicht immer auf dem Rechner ein Audacity zur Verfügung hat, kann sich auch entsprechende Archive von http://audacity.sf.net beziehen.

      Viele Geräte haben ein Problem: Die Software. Hersteller kreieren ein Produkt und fesseln es dann mit einer proprietären Firmware, die nicht erlaubt, dass das Gerät kann was es kann sondern nur das was der Hersteller erlaubt. Zudem kommt, dass viele Hersteller kein Geld in weiteren Support älterer Hardware stecken wollen, sonder ihre Programmierer lieber auf neue Geräte ansetzen. Möchte man also eine neue Funktion, die zwar technisch Möglich ist aber Softwaretechnisch trotzdem nicht unterstützt, muss man sich ein neues Gerät kaufen. Das ist aus Kunden- und Umweltsicht schade, denn so landen noch nutzbare Geräte auf dem Müll aber die Hersteller freuen sich, da so Geld in ihre Kassen gespült wird. Möchte man sich also nicht den Restriktionen der Hersteller beugen bleibt einem nichts anderes übrig, als auf Garantien zu verzichten und zu rooten, jailbraken, debranden oder anderweitig von den auferlegten Fesseln zu befreien. Entweder werden eingebaute Sperren der Hersteller gelöscht oder umgangen oder gleich eine alternative Firmware aufgespielt.
      Am Ende sind nämlich viele Geräte auch nichts anderes als ein kleiner Rechner, mit CPU, Arbeitspeicher und Anschlüssen auf einer Platine und so kann man in vielen Fällen eine Software basierend auf einem Linuxkernel über die Updatefunktion oder eine Hintertür einschleusen und aufspielen. In den meisten Fällen verliert man die Garantie aber gewinnt eine Fülle von neuen Funktionen. Bei alten Geräten lohnt es sich in jedem Fall, bei neueren muss man abwägen, denn die Gefahr, dass man das Gerät “brickt” und es so unbenutzbar macht besteht in jedem Fall.
      In meinem Fall ging es um einen Router der Firma Belkin F7D4301. Die Packung verspricht großmächtig alles Mögliche, aber für viele Dinge ist eine Windowssoftware nötig oder es funktioniert gleich gar nicht richtig. So soll der Router z.B. Torrents herunterladen können, wenn der Rechner aus ist. Mein Test unter WindowsXP zeigte aber, dass das auch mit der mitgelieferten Software nicht funktioniert und zahlreiche Forenbeiträge scheinen das zu bestätigen. Viel Zeit habe ich diese Tests nicht investiert, denn ich will ja den Router befreien und eine andere Software aufspielen.
      Für viele Router gibt es diverse Alternativen. Der Klassiker ist sicher OpenWRT, aber Tomato scheint einfacher zu konfigurieren sein, wenn man sich auf der Konsole nicht so auskennt.
      Der Belkin F7D4301 wird von dd-wrt unterstützt. Dafür muss man das build von eko nutzen. Laut seinem Foren-Beitrag, soll man nicht per GUI, sondern per Mini CFE-Server die Firmware auf den Router aufspielen. Leider führte die Erklärung “(press wps button, plug in power, keep it pressed for 6-7 s, open browser at 192.168.2.1.) nicht zum gewünschten Erfolg und der CFE-Server startete einfach nicht. (Update: Anleitung zum Start des MiniCFE) Das einspielen, des mini-builds über das Webinterface des Routers funktionierte aber ohne Probleme und auch das Upgrade auf die komplette Version war unproblematisch.
      Der Router läuft nun stabiler, das WLAN-Netz bricht nicht so häufig ab und die Feature-Liste macht jeden Technikjunkie glücklich.
      Für mich ein echtes Highlight ist der CRON-Dienst. So kann man alle möglichen Zeitgesteuerten Abläufe einfach realisieren. Nachts ist das WLAN z.B. aus und Transmission ist an. So bekommt man die von Belkin versprochene Funktionalität doch noch und der Router verteilt nachts (wenn ich die Bandbreite nicht benötige) brav Ubuntu-Images über das Torrentnetzwerk.
      DD-WRT lohnt sich also wirklich, denn nun kann man recht einfach Programme auf dem Router aufspielen, hat Zugriff auf den Router per ssh und bekommt noch einige andere Vorteile. Der F7D4301 wird damit plötzlich wirklich zu einem guten Router im Heimnetzwerk.

      Zum Blog: www.lioman.de

      Mandriva Logo 150x150Es ist das gefühlteste hunderste Mal, dass Mandriva einer Insolvenz entkommen ist. Wie einst der U-Boot-Kapitän in den Simpsons, verschwendet auch Jean-Manuel Croset von Mandriva nicht viele Worte, als er den Mandriva-Fans im offiziellen Firmenblog die frohe Kunde unterbreitete.

      Das Treffen der Anteilseigner sei zufriedenstellen verlaufen. Die Rekapitalisierung wurde genehmigt und binnen 10 Tagen umgesetzt. An der neuen Strategie wurde bereits seit zwei Wochen gearbeitet und einen Schlachtplan will man Mitte Mai ausgeben.

      Man of few words

      In einem etwas längeren Blog-Eintrag wendet sich Croset dann an die Community und ist etwas gesprächiger. Das Echo aus der Community sei großartig. Mandriva Linux habe immer noch Unterstützer und Fans. Dennoch verstehe er, dass sich die Nutzer im Stich gelassen fühlen. Dies sei auf wenig Informationen und den Umstand zurückzuführen, dass das Schiff keinen Kapitän zu haben schien. So sei das aber nicht gewesen und man sei durch turbulente Gewässer geschifft.

      Warum man in diese Schwierigkeiten kam kann und will Croset nicht erzählen. Einige davon wurden durch eine Stillschweigevereinbarung begraben und die Vergangenheit könne man sowieso nicht ändern. Nun wolle man aus den Fehler der Vergangenheit lernen und diese nicht noch einmal machen. Ein Hauptgrund sei, dass man die Grundregel, so viel Geld zu verdienen um die Ausgaben zu decken, nicht eingehalten wurde. Dies müsse sich ändern und man wolle die Produkte vermarkten, die im Moment eine Chance haben.

      Mageia 2 KDE Menü Desktop

      Mageia bald mit zweiter Ausgabe

      Das hört sich zwar alles recht gut an, aber ich bin gespannt, wie das weitergeht. Einige sehr gute Entwickler haben Mandriva den Rücken gekehrt und arbeiten nun am Abkömmling Mageia. Hier wird es bald eine zweite Ausgabe der Distribution geben und die sieht alles andere als schlecht aus. Ebenso dürften es schwer sein, das Vertrauen von Anwendern wieder zu finden. Die anderen Distributoren schlafen auch nicht. Ubuntu 12.04 LTS (und Abkömmlinge) mit fünf Jahren Unterstützung auf dem Desktop ist eine attraktive Alternative. Wer Unity nicht mag, kann auf Versionen mit Xfce, LXDE und KDE zurückgreifen – es ist also für jeden etwas dabei.

      ROSA Labs, unter anderen wegen Mandriva bekannt, bastelt auch an einer eigenen Distribution. Ein Release-Kandidat ist schon da. Linux Mint hat im letzten Jahr einen unglaublichen Zulauf zu verzeichnen. Clement Lefebvre und sei Team haben sich, wie Mark Shuttleworth auch, Anwenderfreundlichkeit ganz große auf die Fahnen geschrieben und mit Cinnamon einen doch recht beachtlichen Coup auf dem Desktop gelandet. Das war ja eines der Steckenpferde Mandrivas. Ich kann mich noch erinnern, vor einigen Jahren selbst Mandriva, oder damals hieß es noch Mandrake, eingesetzt zu haben. Die Distribution war ganz einfach anwenderfreundlicher als die SUSEs, Red Hats, Debians und Ubuntu gab es noch gar nicht. Als Anfänger freut man sich über jede Kleinigkeit, die unterstützt. Aber da hatte man mit Gaël Duval noch einen Visionär an Bord.

      Mandriva sorgte im Jahre 2007 für einiges an Staunen. Es war die erste Distribution, die mit integrierter Unterstützung für 3D-Effekte auf dem Desktop ausgeliefert wurde. Man verwendete damals Beryl. Da hatte ich das System ebenfalls wieder auf einem Rechner am Laufen, nur um damit vor Windows-Anwendern anzugeben – muss ich ganz ehrlich zugeben.

      Worauf ich also am meisten gespannt bin ist, von welchen Produkten hat Croset da gesprochen, die sich im Moment vermarkten lassen sollen? Ich würde mir echt wünschen, dass Mandriva wieder auf stabileren Boden kommt und künftig wieder durch positive Schlagzeilen auffällt.


      Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

        Es ist schon einige Zeit her, dass Canonical angekündigt hat, auch eine Smartphone Version von Ubuntu erstellen zu wollen. Canonical fährt damit einen starken Expansionskurs, was auch sein muss, wenn sie auf die angepeilten 200 Milionen Nutzer kommen wollen.
         
        Alleine über den Desktop ist das nicht möglich, da die Schwelle, auf Windows zu verzichten immer noch sehr hoch ist, und Linux immer noch den Ruf des “Experten-Systems” hat.
        Das starke Wachstum von Ubuntu ist so vor allem auf Kosten der anderen Distributionen gegangen. Wenn man also Ubuntu unter die Leute bringen will, dann irgendwo, wo die Einstiegshürde nicht so hoch ist, also auf Fernsehern und Smartphones. Und dann versuchen, durch dies die Leute zu überzeugen, sich Ubuntu auf dem Computer mal anzusehen.
         
        Auf den Fernsehern könnte dieser Durchbruch vielleicht klappen, wenn Canonical es schafft, einen großen Fernsehhersteller zu überzeugen, ihre Fernseher mit Ubuntu anzubieten. Sie könnten natürlich auch wie Apple mit seinem Apple TV Set-Top Boxen verkaufen, aber ich glaube nicht, dass sie damit erfolgreich sind, da dann doch die Marktmacht und die Bekanntheit fehlt.

        Ein Ubuntu Phone Mockup von musl1m

         

        Auf dem Smartphone Markt sieht die Sache natürlich ganz anders aus. Viel schwieriger wie ich denke. Zur Zeit teilen sich 4-5 Betriebssysteme den Markt auf, wobei Android und iOS klar dominieren. Hier Fuß zu fassen, fällt selbst einem Schwergewicht wie Microsoft extrem schwer. Obwohl Microsoft eigentlich mit seinem Windows Mobile ziemlich viel richtig gemacht hat. Die Hersteller haben Hardware-Vorgaben, damit das Windows auch zügig läuft, Updates kommen zügig beim Nutzer an und die Oberfläche ist kein Android oder iOS Klon und hat einige Nette Ideen. Aber es fehlen halt die Anzahl der Apps, die man auf einem iPhone oder Android-Handy hat.
        Google hat es versäumt, die Hersteller zu Zeitnahen Updates für Ihre Handys zu verpflichten. Auf meinem Smartphone läuft immer noch Android 2.2 und ich werde wohl 2.3 geschweige denn 4.0 nie auf dem Handy sehen.
        Aus diesen ganzen Sachen sollte Canonical lernen.
         
        Also Entweder die Hersteller zu Updates verpflichten oder gleich selber die Smartphones wie Apple von einem Auftragsfertiger herstellen lassen. Es muss ja nicht nur ein Modell sein, sondern könnten ja immer 3 Modelle sein, ein Mittelklasse-, ein Einsteiger- und ein Oberklassemodell.
        Canonical hat auch den Vorteil, dass es mit Ubuntu ein Betriebssystem selber herstellt, und außerdem mit Ubuntu One einen Online-Speicher im Angebot hat. Sie sollten also diesen Vorteil nutzen und ihr Handy mit diesen beiden Sachen maximal kompatibel machen. Dabei aber nicht die anderen Betriebssystem vergessen!
         
        Ein weiteres Problem sind die fehlenden Apps, was ein Teufelskreis ist. Fehlen die Apps kommen keine Benutzer und fehlen die Benutzer, schreibt keiner Apps dafür. Eine Möglichkeit wäre hier, einen Kompatibilitätsmodus für Android-Apps machen, so dass man von Anfang an eine ganze Menge Apps zur Verfügung hat. Mobilprozessoren werden auch immer schneller, so dass 2014, wenn die erste Version angepeilt ist, das auch ohne Ruckler vonstatten gehen sollte.
        Daran verdient Canonical erstmal nichts, sondern nur Google, aber sie haben einen vollen App-Store vorzuweisen. Und mit der Zeit sollte es auch möglich sein, einen eigenen App-Store aufzubauen.
        Oder sie versuchen gleich über Inhalte, wie den Ubuntu One Music Store Geld zu verdienen.

         

        Eine Einheitliche Oberfläche der Programme wäre auch schön. Es gefällt mir an Ubuntu, dass jedes (Standard)Programm sich an bestimmte Richtlinien hinsichtlich Aussehen und Bedienung halten, und nicht wie bei Windows jedes Programm seine eigenen Fensterleisten mitbringen kann oder komplett gar nicht in den Desktop passt. Zumindest die Standardprogramme sollten also auch bei Ubuntu-Phone gleich aussehen.
        Das Mockup, welches mir sehr gut gefällt, ist von Musl1m

         
        Nocheinmal kurz zusammengefasst, über was ich mich bei Ubuntu Phone freuen würde:

        • Zeitnahe Updates
        • Ordentliche Hardware
        • Gute Integration in Ubuntu/Ubuntu One
        • Android Apps
        • gleiches Design der Standardprogramme

         

        Würdet ihr Euch unter solchen Umständen ein Ubuntu Phone kaufen, oder was muss noch passieren, damit ihr euch eins Kaufen würdet, oder bleibt ihr lieber bei den altbewährten?
         

        Am 27.04. ist die Owncloud Android (2.3.6. oder höher) App erschienen.Sie steht unter einer GPL Lizenz, der Quellcode ist hier zu finden.

        Der Funktionsumfang hält sich noch im Rahmen. Es ist möglich die Dateien in der Owncloud zu durchsuchen, zu löschen und hoch / runter zu laden. Wie bei Dropbox kann die App mit einem 4-stelligen Pin gesichert werden.

        In 4-6 Wochen soll die nächste Version erscheinen, welche dann auch in ‘Google Play’ verfügbar sein wird.

        Wer die App ausprobieren möchte findet sie auf https://owncloud.com/download.