ubuntuusers.de

8. Mai 2011

Vor ein paar Wochen war es soweit: der Quelltext von Communtu wurde veröffentlicht. Nachdem wir intensiv an der Fehlerbehebung und neuen Features gearbeitet hatten, hatten wir uns entschieden Communtu unter die AGPL zu stellen. Somit steht nun jedem interessierten Nutzer die Möglichkeit offen an Communtu mitzuentwickeln. Der Sourcecode ist bei github unter https://github.com/communtu/communtu zu finden und kann von dort aus direkt bezogen werden. Wir bitten vor der Installation die Readme-Datei zu lesen und uns bei Bedarf in unserem IRC-Channel #de-communtu auf irc.freenode.net direkt anzusprechen.

Wer möchte kann uns dieses Jahr auch auf den LinuxTag in Berlin besuchen, diskutieren und uns um Hilfe fragen wenn Schwierigkeiten mit der Benutzung der Communtu-Webseite auftreten. Wir haben, wie letztes Jahr, einen Gemeinschaftsstand (Halle 7.2a, Stand 106) mit der Ubuntu-Community zusammen. Wir freuen uns auf Euren Besuch!


    Seinen Ubuntu-Rechner fernsteuern ist in der heutigen Zeit nicht mehr so schwer.
    Was man dazu braucht ist ein Smartphone mit Android und ein WLAN.

    Installation

    Auf seinem Smartphone muss man nur die Anwendung URemoteDesktop installieren.
    Auf dem Computer muss man die Serveranwendung installieren. Diese benötigt Java, was auf jedem Rechner eigentlich installiert ist und notfalls aus den Quellen nachinstaliert werden kann.
    Außerdem muss noch das Programm xautomation installiert werden, welches sich auch in den Standard-Ubuntu-Quellen befindet.
    Die Serveranwendung kann von hier heruntergeladen werden (Direktlink)
    Nach dem entpacken müssen noch die Dateien ausführbar gemacht werden. Das geht mit

        $ chmod +x launch.sh
        $ chmod +x vd.sh

    Das Programm startet man mit:

    ./launch.sh

    Wenn man will, kann man auch einen Autostart-Eintrag anlegen, sodass man nicht immer das Programm starten muss.

    Benutzung

    URemoteDesktop

    URemoteDesktop

    Wenn der Server auf dem Computer gestartet ist, kann man die Fernbedienung benutzen. Einfach auf dem Smartphone die Anwendung starten. Zum verbinden braucht man die Lokale IP des Rechners, nachdem man auf Connect geklickt hat, ist alles fertig.
    Unter dem Reiter Music kann man das Standard-Musik Abspielprogramm steuern, Starten/Stoppen/Lied vor/Lied zurück und die Lautstärke sind steuerbar.
    Der Reiter Desktop ist vor allem für Präsentationen. LibreOffice und OpenOffice werden unterstützt. Neben nächster Folie/vorheriger Folie kann man auch im aktiven Fenster scrollen und den Desktop wechseln sowie den Bildschirm aus- und wieder anschalten.
    Im Reiter Type ist eine virtuelle Tastatur.

    Fazit

    Das Programm macht genau das, was es soll, allerdings auch nicht mehr. Es unterstützt alle Medienspieler, man kann aber nur in der aktuellen Wiedergabeliste wechseln. In der Bibliothek kann man nicht suchen.
    Ich würde sagen, diese Applikation ist vor allem für Präsentationen und um mal schnell vom Bett aus die Musik zu unterbrechen.
    Wer seinen HTPC damit steuern will ist mit XBMC und der dazugehörigen Fernbedienung sicherlich besser aufgehoben

    So nun sind die LinuxWochen in Wien gelaufen, es war schon stressig. Über den Andrang der Besucher, kann ich gar nicht mal so viel sagen, das ich ja meist selbst einen Workshop hatte. Gerade der Samstag war schon heftig, da ich von 11-14 Uhr einen Workshop hatte, um 14 Uhr einen Vortrag und um 15 Uhr schon wieder den nächsten Workshop. An Vorträgen selbst habe ich nur den q/talk am Freitag Abend über Open Data besucht. Im Anschluß gab es dann den Social Event mit Livemusik. Der Veranstaltungsort war dieses Jahr das Technikum Wien, welches auf jeden Fall tolle Möglichkeiten bietet. Der Platz für die Stände war besser und natürlich auch die Räumlichkeiten für die Vorträge und Workshops. In meinem Workshopraum gab es auch Rechner mit vorinstalliertem openSUSE und Inkscape/GIMP so das man an diesen Maschinen arbeiten konnte. Wenn ich das richtig verstanden habe, wird man auch nächstes Jahr am Technikum sein, was man nur hoffen kann.

    Meine Workshops waren mit zwischen 20 und 25 Teilnehmern gut besucht. Nur am Samstag die Wiederholung des GIMP-Workshop hatte mit 6 Leuten weniger Teilnehmer, was allerdings zu erwarten war. An der Stelle muss man sagen, ich scheine so etwas wie eine Fangemeinde in Wien zu haben, einige Leute waren nun schon das dritte Jahr in Folge in einem meiner Workshops und viele nehmen dann auch jeden mit, der angeboten wird. Sofern der Inhalt der Workshops wechselt. Erstaunlich an der Stelle ist, das die Inkscape-Workshops scheinbar mehr von Interesse waren als GIMP. Das ist hier in Deutschland sonst anders, da GIMP das kompliziertere Werkzeug ist, sind hier dessen Workshops schneller ausgebucht. Wahrscheinlich wäre es besser gewesen für die Veranstalter statt den einen GIMP Workshop zu wiederholen lieber einen weiteren Inkscape Workshop von den von mir eingereichten zu nehmen.
    Da jetzt die meisten Teilnehmer der Workshops die Inhalte in meinem Blog noch einmal suchen, hier noch mal die Links zu den Inhalten der Workshops:

    Heute gibt es mal wieder einen kleinen Android-Beitrag. Diesmal geht es um Jabber-Clients für Android. Ich habe davon einige ausprobiert, manche gefallen mir ganz gut, andere wiederum nicht. Hier möchte ich diese mal vorstellen. Welchen man bevorzugt ist sicher die Frage der Bedürfnisse und was einem optisch am besten gefällt.

    Meebo IM

    Mein aktuell verwendeter Client, da er irgendwie die stabilste Verbindung bietet und auch bei einem Netzwerkwechsel (WLan auf mobiles Netzwerk und zurück) nicht immer sofort abstürzt.
    Unterstützte Netzwerke: AIM, MSN, Yahoo, MySpace, Google Talk, Jabber, ICQ
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    IM+ / IM+ Pro

    Unter Symbian mein absoluter Lieblingsclient, unter Android nur mittelmäßig. Verbindungsabbrüche zum Jabber-Server bekommt man nicht immer mit, etwas besser mit der aktuellen Version, die neue Funktionen und ein überarbeitetes Design bietet. Qualitativ aber noch weit von der Symbian-Version entfernt. Bietet leider wenige Einstellungsmöglichkeiten.
    Unterstützte Netzwerke: Skype, Facebook, AIM, MSN/Windows Live Messenger, Yahoo!, ICQ, Jabber, Google Talk, MySpace
    Preis/Download: € 6,49 im Android Market, werbefinanzierte Version kostenlos
    App2SD: ja

    Slick messenger

    Nicht ausprobiert, da er mir schon rein optisch gar nicht gefällt. Werbefinanziert.
    Unterstützte Netzwerke: ICQ, AIM, Yahoo chat, MSN, Google talk, Jabber, Facebook chat
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    ReChat

    Optisch ganz okay, hat bei mir aber beim kurzen Testen sowohl im WLan als auch im mobilen Netzwerk oft die Verbindung verloren ohne, dass er mich darauf aufmerksam gemacht hat. Werbefinanziert.
    Unterstützte Netzwerke: Facebook, Yahoo!, Google Talk, MSN, Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Nimbuzz

    Nicht getestet, da es nur Google Talk unterstützt. Andere Jabber-Server sind nicht möglich.
    Unterstützte Netzwerke: Yahoo!, MSN, AIM, GoogleTalk, Facebook, ICQ, MySpace, Hyves
    Preis/Download: kostenlos im Android Market
    App2SD: ja

    Palringo

    Vor einiger Zeit mal getestet. Hat es leider nicht geschafft eine Verbindung länger als 5 Minuten zu halten. Außerdem wirkt die App recht langsam und schwerfällig.
    Unterstützte Netzwerke: Facebook, MSN, AIM, Yahoo, Google Talk, ICQ, Jabber, iChat / MobileMe, Gadu-Gadu
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    imo instant messenger

    Hier habe ich mal die Betaversion installiert. Sehr nette App, optisch ansprechend. Bietet reichlich Einstellungsmöglichkeiten wie Schriftgröße, an- und abschalten von Emoticons oder einer History. Hält auch bei Netzwerkwechseln die Verbindung. Wirkt allerdings am HTC Wildfire ein bisschen schwerfällig.
    Unterstützte Netzwerke: Facebook Chat, Google Talk, Skype, MSN, ICQ/AIM, Yahoo, Jabber, Myspace
    Preis/Download: kostenlos im Android Market (Beta-Version)
    App2SD: nein

    Xabber

    Reiner Jabber-Client, der unglaublich viele Einstellungsmöglichkeiten bietet. Unterstützt auch MUCs. Bei Netzwerkwechseln trennt der Client allerdings sofort die Verbindung. Positiv ist, dass er selbst wieder verbindet, was allerdings eine Weile dauert.
    Unterstützte Netzwerke: Google Talk, Facebook chat, LiveJournal, VKontakte, Ya.Online
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Jabiru

    Bietet viele Einstellungsmöglichkeiten, kann sich optisch aber noch ein bisschen Verbessern. Nach einem Netzwerkwechsel wird die Verbindung getrennt. Ein Reconnect dauert dann eine Weile.
    Unterstützte Netzwerke: Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Beem

    Reiner Jabber-Client, bietet nur wenig Einstellungsmöglichkeiten. Absenden kann man nur mit dem Send-Button, nicht mit dem Enter-Button der Tastatur. Bei Netzwerkwechsel stürzt die App komplett ab.
    Unterstützte Netzwerke: Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    yaxim

    Reiner Jabber-Client mit wenigen Einstellungsmöglichkeiten. App schließt sich beim Wechsel des Netzwerkes gelegentlich einfach mal kommentarlos.
    Unterstützte Netzwerke: Jabber
    Preis/Download: kostenlos im Android Market
    App2SD: nein

    Nachtrag: Ich wurde auf Twitter gefragt, wie es denn in Sachen Akkuverbrauch aussieht. Hier kann ich natürlich nur zu den Apps was sagen, die ich länger nutze und nicht nur mal getestet habe. In meinem Fall sind das IM+ Pro und Meebo: bei beiden Apps merke ich keinen besonders erhöhten Akkuverbrauch, wenn sie den ganzen Tag laufen.

    Wo ich allerdings unterschiede feststelle sind im Traffic. Meebo scheint hier wesentlich mehr zu verbrauchen als IM+. Zumindest meint das der Traffic Counter.

    {lang: 'de'}

    Nach einigen “Klickbunti”-Themen mal wieder ein kleiner Eintrag zur guten alten Shell ;-). Unter Linux kommt man ja fast nicht drum herum, mit dem Terminal und der Bash (Bourne-again shell) in Berührung zu kommen, deswegen ist man gut beraten, sich entsprechend zu wappnen. ;p Ein paar pfiffige Befehle, für das produktive Arbeiten mit der Bash, habe ich versucht hier zusammenzustellen…

    Einstieg - Grundbefehle lernen

    Wer gerade erst mit Linux anfängt, sollte sich in jedem Fall einmal die Zeit nehmen, die Grundbefehle für die Shell zu lernen. Dazu gibt es viele gute Zusammenfassungen im Netz, z.B.

    Auch mit einem Editor sollte man in der Konsole umgehen können, um Konfigurationsdateien anpassen zu können. Für Einsteiger bietet sich hier nano an, das bei den meisten Distributionen auch bereits vorinstalliert ist, für erfahrene Anwender gibt es jedoch noch sehr viel mächtigere Editoren wie z.B. vim. (siehe Tipps unten) Außerdem ist es sinnvoll, zu wissen wie die Verzeichnisstruktur unter Linux (Suchmaschine des Vertrauens hilft!) aufgebaut ist, um beispielsweise zu wissen, wo wichtige Dateien zu finden sind.

    Die richtigen Befehle finden

    Als Anfänger tut man sich natürlich schwer, auf Anhieb die richtigen Befehle zu finden. Aber auch wenn man schon mehr Erfahrung hat, passiert es häufiger, dass man auf neue Befehle stößt. Einige Tipps, wie man sich trotzdem zurechtfindet:

    • Man-Pages nutzen! mit man befehlxy oder info befehlxy erhält man oft viele Informationen zu einem Befehl und den zugehörigen Flags (zusätzliche Argumente, die mit einem Bindestrich angefügt werden, z.B. ls -la) Mit /suchwort kann man in Man-Pages auch nach geeigneten Schlüsselwörtern suchen.
    • oft bekommt man auch mit befehlxy --help oder -h eine Kurzhilfe angezeigt
    • apropos suchwortxy - Sucht in den Kurzbeschreibungen der Befehle nach dem Suchwort
    • whatis befehlxy - gibt die Kurzbeschreibung eines Befehls aus
    • whereis und which - zeigt den (Haupt)Speicherort eines Programms/Befehls an
    • ldd /pfad/zu/programm - zeigt Bibliotheks-Abhängigkeiten eines Programmes (Beispiel: ldd /usr/bin/gedit)

    Pipe benutzen

    Das Terminal hat zwar keine grafischen Effekte, dafür jedoch andere Vorteile. Diese liegen unter Anderem bei der einfachen Manipulation der Eingabe- und Ausgabekanäle. Natürlich ist es besonders effektiv, wenn man diese Vorteile gezielt einsetzt. Grob gesagt gibt es 3 Standardkanäle unter Linux für Eingabe & Ausgabe. Eingabe (“STDIN”, meist mit der Nummer 0 gekenntzeichnet), Ausgabe (“STDOUT”, Nummer 1) und Fehlerausgabe (“STDERR”, Nummer 2). Normalerweise gibt der Benutzer etwas über die “Standardeingabe” (einen Befehl) in das Terminal ein und bekommt eine Ausgabe oder einen Fehler zurückgeliefert. Das alleine wäre nichts besonders, allerdings lässt sich die Ausgabe auch über sogenannte Pipes - gekenntzeichnet durch einen senkrechten Strich | an den Eingabekanal eines anderen Befehls umleiten. So kann man Befehle unter Linux einfach verketten.

    Drei kleine Beispiele:
    ls | sort				# gibt den Ordnerinhalt aus uns sortiert die Ausgabe alphabetisch
    cat file.txt | grep apfel		# gibt eine Datei aus und sucht dann nach dem Textausschnitt, der den Begriff "apfel" enthält
    history | less				# listet die zuletzt eingegebenen Befehle auf, mit less kann man komfortable in der Ausgabe scrollen oder suchen

    Neben der “Pipe” gibt es auch noch andere Möglichkeiten, die Ausgabe umzuleiten. Zum Beispiel kann man mit dem Zeichen > auch Ausgaben in Dateien weiterleiten, wenn diese nicht direkt auf dem Bildschirm erscheinen sollen. So kann man z.B. auch Fehler in einer extra Datei sammeln, indem man die oben genannte Nummer der Fehlerausgabe benutzt:

    CMD  2 > errors.txt

    Bang-Operator: !

    Der oben angesprochene history-Befehl zeigt vor jedem früheren Befehl eine Nummer an. Mit einem Ausrufezeichen und einer passenden Nummer kann man den Befehl so auch später erneut aufrufen und erspart sich unnötige Tipparbeit:

    $ history | more 10  2011-04-20 10:37:42 sudo pacman -Syu 11  2011-04-20 11:04:06 ls 12  2011-04-20 11:04:18 cd tmp/ 13  2011-04-20 11:04:19 ls 14  2011-04-20 09:44:04 cd .config/autostart/ 15  2011-04-20 09:44:05 ls $ !12 cd tmp/
    Auch kann man die letzen Eingaben relativ ansprechen, z.B.
    !-3      # fuehrt den drittletzten Befehl aus
    Speziell für den letzten Befehl gibt es das Kürzel !!, was z.B. besonders hilfreich ist, wenn man mal wieder vergessen hat, einen Systembefehl mit Rootrechten zu starten:
    $ pacman -Syu error: you cannot perform this operation unless you are root. $ sudo !! sudo pacman -Syu Password:
    Mit dem !-Befehl lassen sich noch andere nützliche Dinge anstellen, z.B.
    mkdir newdir cd !!:1       # erstes Argument vom letzten befehl, wechselt in das neu erstelle Verzeichnis (alternativ "cd !$")
    !ssh  :p     # letzten befehl zeigen, der ssh enthielt (ohne :p wird der Befehl direkt ausgeführt)
     

    Dateiverwaltung

    ls -la # gesamten Ordnerinhalt auflisten, sollte den meisten bekannt sein ;)
    cd - # zurück zum vorherigen Verzeichnis, vergleichbar mit dem Zürück-Button in Dateimanagern
    rm -Rf ordner # löscht einen ordner komplett (rekursiv) & ohne nervige Fehler wie bei rmdir
    mkdir -p ~/neue/ordner/anlegen # mit -p können direkt mehrere Unterordner in einem Schritt erstellt werden
    du / -h | more bzw. df -h # zeigt Festplattenspeichernutzung bzw. freien Speicherplatz (-h --> human readable)
    tar cf dir.tar dir/ Tar-Archiv aus Verzeichnis dir erstellen. (tar czf für tar.gz und cjf für tar.bz2)
    tar xvzf file.tar.gz gzip tar Datei extrahieren (Dateiendung .tgz oder .tar.gz)
    tar xvjf file.tar.bz2 bzip2 tar Datei extrahieren (Dateiendung .tbz oder .tar.bz2)

     

    Wildcards

    Wildcards (erkennbar z.B. an dem Sternchen: ) werden verwendet, wenn bestimmte Buchstaben nicht klar festgelegt werden sollen. Mit ihnen ist es möglich, verschiedene Dateien auf einmal zu behandeln. Beispiele:

    mv *.jpg ./Bilder # alle jpg-Dateien in den Unterordner Bilder kopieren
    find -name *notizen* # sucht nach einer Datei im aktuellen verzeichnis mit dem Begriff notizen im Namen, siehe auch: http://www.go2linux.org/usages-examples-of-find-command
    cp filename{,.bak} # Datei filename einfach backupen
    Das Zeichen steht für 0 bis beliebig viele Zeichen. Für nur ein beliebiges Zeichen, sollte ? verwendet werden. Natürlich ist es auch möglich, nur bestimmte Buchstaben zuzulassen. Siehe dazu z.B. http://www.tuxfiles.org/linuxhelp/wildcards.html.

    Bash-Scripts und Automatisierung

    Ein riesiger Vorteil beim Benutzen der Bash ist die Möglichkeit, mehrere Befehle mit Scripts zu automatisieren. Das verkleinern von vielen Bildern oder ein regelmäßig erstelltes Backup sind so sehr bequem möglich. Natürlich erhöht es auch die Produktivität stark, wenn man solche Scripts an den richtigen Stellen einsetzt. Zudem ist es für Jeden, der schonmal mit dem Terminal gearbeitet hat und bereits einige Befehle kennt, kein großer Schritt mehr, Shell-Scripting zu lernen. Gute Anlaufstellen sind beispielsweise:

    Neben den Scripts gibt es auch noch andere Möglichkeiten, bei häufig benötigten Aktionen Zeit zu sparen. Befehle in der Datei .bashrc im Homeverzeichnis werden beispielsweise immer beim Starten der Shell ausgeführt. Hier bietet es sich an, für längere Befehle alias-Namen festzulegen. Beispiel:
    alias la='ls -lahg --color=auto --group-directories-first'
    Nun muss statt dem langen Befehl in den Anführungszeichen immer nur la eingegeben werden. Weitere nette Anregungen für die .bashrc findet man z.B. im Archlinux Forum oder im Ubuntu Forum.

    vim - Befehle für den Texteditor

    vim ist ein sehr umfangreicher Texteditor für die Konsole, der durch eine angepasste Konfigurationsdatei sowie etliche Plugins noch erheblich erweitert werden kann. Da bei Linux öfter mal vorkommen kann, dass man Konfigurationsdateien anpassen muss, hier ein kurzer Überblick. Zum Einstieg ist es wichtig zu wissen, dass es im Wesentlichen 2 Modi gibt: einen Befehls-/Kommandomodus (in dem vim auch startet) zur Eingabe von Befehlen und einen Eingabemodus zur Textbearbeitung. Mit der Taste i wird standardmäßig in den Eingabemodus gewechselt, die Taste ESC bringt einen zurück in den Befehlsmodus.

    Ein paar nützliche Befehle:
    :q vim beenden
    :q Verlassen erzwingen (bei Änderungen ohne Speichern)
    :w Änderungen in Datei schreiben
    :wq oder :x Speichern und Verlassen kombinieren
    /suche nach dem string "suche" im dokument suchen
    :/s/foo/bar nach foo suchen und mit bar ersetzen (erstes Ergebnis)
    :%s/foo/bar im Dokument nach foo suchen und mit bar ersetzen (alle Ergebnisse)
    n Weitersuchen (nächstes Ergebnis)
    u vorige Schritte rückgängig machen
    b oder w ein Wort vor oder weiter springen
    D vom Cursor bis zum Ende der Zeile alles ausschneiden
    p Text aus Zwischenablage einfügen
    v Text markieren (erneutes v beendet Markieren)
    y Text kopieren
    dd aktuelle Zeile löschen
    G zum Ende des Dokumentes springen
    gg ganz zum Anfang eines Dokuments springen

     

    Speicherprobleme lösen

    Für die aktuelle Datei fehlen die nötigen Schreibrechte:

      :shell     # wechseln in die Shell, ohne vim zu beenden
      chmod u+w filename.txt     # gibt dem aktuellen benutzer Schreibrechte
      exit     # kehrt zu vim zurück
      :w!     # Dateiänderungen speichern

    Für die Aktuelle Datei fehlen die Rootrechte (Konfigurationsdateien usw.):

      :w !sudo tee %

    (tee schreibt standardausgabe in eine datei, in diesem Fall die aktuelle (%), alternativ kann nach dem tee befehl natürlich auch ein anderer Befehl angegeben werden)

    Weiterführendes zu vim:

    Nützliche Tastenkombinationen (u.A. Gnome-Terminal)

    • Strg + A oder Strg + E - an das Anfang oder Ende einer Eingabe springen
    • Strg + Shift + T - neuen Tab mit  eigenem Terminal anlegen
    • Strg + R <suchwort> - History/letzte Eingaben nach einem Befehl durchsuchen
    • Tab - versucht einen Befehl zu vervollständigen - hier empfhiehlt es sich auch, bash-completion installiert zu haben, was dieses Feature noch erweitert
    • Strg + D - Eingabe von aktuellem Befehl beenden ("End-of-File", schließt die Standardeingabe - und damit häufig auch das Programm)
    • Strg + C - Laufendes Kommando abbrechen (sendet das Signal "SIGINTR" am das Programm)
    • F11 - Vollbild
    • Strg + Z - gerade im Terminal aktiven Prozess schlafen legen (es wird eine Nummer angezeigt (z.B. [1]) über die der Prozess wieder im aktuellen Terminal: fg %1 oder im Hintergrund: bg %1 fortgesetzt werden kann)
    • CMD & - oeffnet einen Befehl nicht im Terminal sondern im Hintergrund, sodass man im Terminal weiterarbeiten kann. Bei Erfolg wird die ProcessID des neuen Prozesses angezeigt.
    • Strg+U / Strg +W - gesamten Text nach/vor dem Curor löschen
    • Alt + F / Alt + B - ein Wort in der Eingabe vor / zurueck springen

    Fehlerbehandlung

    Viele Fehler, die einem bei der Shell-Benutzung über den Weg laufen, sind die Ursache ähnlicher Fehlerquellen und deswegen oft einfach lösbar. Generell empfiehlt es sich (sofern im Terminal keine Fehlermeldung aufgetaucht ist), einmal in den Logfiles (i.d.R. zu finden im Verzeichnis /log), z.B. in Kombination mit dem grep-Befehl nachzusehen. Für ehemalige Windows-Nutzer ist wahrscheinlich das Rechtesystem erst einmal ungewohnt:

    Rechteverwaltung

    chmod u+rwx file   # dem benutzer Lese (r) Schreib (w) und Ausführungsrechte (x) für die Datei file geben
    chown und chgrp # Besitzer und Gruppe einer Datei festlegen
    su user  # als benutzer user anmelden. su ohne Parameter gibt dauerhafte Rootrechte

    Programme “killen”

    Programme kann man auf verschiedene Weise zum Beenden zwingen:

    pkill -f programm     # versucht "programm" zu beenden
    Falls mehrere Instanzen eines Programmes laufen, lassen sich auch alle aufeinmal beenden mit:
    killall programm
    Erweiterte Kontrolle über das gewünschte Signal, das zum Beenden gesendet wird bekomt man mit dem kill-Befehl. (siehe man kill) Hier muss allerdings auch erst z.B. mittels  ps -ax | grep programm nach der richtigen Processid gesucht werden, Beispiel:
    kill -9 ID

    Andere (System)tools und Weitere Quellen

    Um den Artikel möglichst allgemeingültig zu halten, habe ich mich bemüht, hier nur die “Standardbefehle” zu erwähnen. Natütlich gibt es noch etliche gute Bash-Tools, die die Produktivität nochmal verbessern. Statt der normalen Systemüberwachung top benutze ich z.B. htop, welches mehr Funktionen bietet. Für Systemtools gibt es bereits einen guten Blogartikel, welchen ich hier gerne verlinke: http://www.cyberciti.biz/tips/top-linux-monitoring-tools.html.

    Weitere Querverweise

    Ich hoffe die Tipps in diesem Artikel kann dem Einen oder Anderen die Arbeit in der Bash erleichtern. ;) Wie immer freue ich mich über Kommentare: Gibt es noch Befehle oder Tricks, die ihr weiterempfehlen könnt oder für erwähnenswert haltet?

    7. Mai 2011

    Inzwischen ist Ubuntu Natty Narwhal freigegeben worden und Unity hat sich trotz einiger Bedenken mindestens bis zu jetzigem Zeitpunkt durchsetzen können. Es gibt noch immer genügend Menschen, die gegenüber Unity sehr skeptisch eingestellt sind, was ich grundsätzlich befürworte. Zwar meine ich, dass sich Canonical etwas sehr spezielles für Ubuntu einfallen lassen sollte, wenn das Unternehmen während den nächsten drei Jahren in die Gewinnzone kommen möchte. Aber nicht um jeden Preis und schon gar nicht zu Lasten der Benutzer.

    Wie dem auch sei; ich habe auf meinem Reiselaptop, dem Lenovo ideapad S12 ebenfalls Ubuntu 11.04 installiert. Dabei ging selbstverständlich irgend etwas in die Hosen. Das muss so sein. Erwartungsgemäss lief das WLAN nicht, obschon der proprietäre Treiber bereits nach der Installation ohne Rückfrage an den Benutzer installiert war. Auf dem Forum von ubuntuusers.de fand ich denn auch sofort die Lösung.

    Mit folgendem Befehl in der Konsole und einem darauf folgenden Neustart des Systems funktionierte das WLAN wieder:

    echo 'options acer_wmi wireless=1' | sudo tee /etc/modprobe.d/acer-wmi.conf

    Ansonsten läuft das System mehr oder weniger stabil, nicht besonders schnell, aber doch brauchbar. Unity ist nicht unbedingt die erste Wahl meiner Arbeitsumgebung, aber ich will mir das Teil doch einmal gründlich ansehen.

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    logo Puppy Linux rockt! wpa2 USB ubuntu puppy puppeee planetuu planet uu open source lucid live linux eeepc Puppy Linux ist eine blitzschnelle Linux-Distribution mit geringer Anforderung an die Hardware. Gerade im letzten Jahr hat sich bei Puppy (englisch für “Welpe”) viel getan. Wegen seiner Kompatibilität zu den Paketquellen von Ubuntu (seit Puppy Version 5.x.) bietet Puppy inzwischen auch eine große Flexibilität in Bezug auf Treiber und andere Software.

    Puppy beobachte ich nun schon seit ein paar Jahren und habe es immer mal wieder mit Freude genutzt. Auch wenn das sicher Geschmackssache ist, hat Puppy einen riesigen Charme-Faktor, alleine schon dafür, was das Look and Feel angeht. Dies ist für mich persönlich mit weitem Abstand das Beste, was Linux zu bieten hat.

    install Puppy Linux rockt! wpa2 USB ubuntu puppy puppeee planetuu planet uu open source lucid live linux eeepc

    Auf einem alten Acer Aspire mit 384 MB RAM fühlt sich das System (hier im Test: “Puppy-Lucid” 5.2.5) schneller an als z.B. eine der großen, gängigen Distributionen mit 1 GB RAM. Aber auch schon auf Systemen mit 128 MB (oder gar weniger) kann Puppy brauchbare Ergebnisse vorweisen.

    Dafür muss man natürlich gewisse Abstriche in Kauf nehmen. Für Schlankheit und Tempo muss man ein bisschen Tribut zollen. So kommt z.B. der schlanke Dateimanager ROX zum Einsatz – Mit “Drag and Drop” usw. wird man hier nicht verwöhnt. Klar, dass Gnome, Unity oder KDE auf einem solchen System nicht zu finden sind.

    So genial Puppy in den alten Versionen bereits war, so war es einfach nicht möglich, bestimmte Pakete problemlos zu installieren. Mit dem Schritt, neben dem Puppy-eigenen Paketsystem auch Ubuntu-Paketquellen nutzen zu können, hat Puppy einen ganz wichtigen Schritt nach vorne getan.

    Puppy kommt zunächst mal als Live-System (i.d.R. als ISO-Datei für CDs) mit der Option, es komplett in den Speicher zu laden. Puppy kann aber auch installiert werden – z.B. auf Platte, USB oder SD-Card. Außerdem ist es möglich, Puppy als Live-CD zu booten, dann zu konfigurieren (Netzwerk usw.) und diese Einstellungen so auf der (als Multisession angelegten) CD zu speichern. Alle Einstellungen werden beim nächsten Boot wieder geladen – ideal für temporäre Konstellationen mit historischer Hardware, die man bei Bedarf aus dem Hut zaubern kann.

    Auch die Konfiguration des Netzwerkes (v.a. was WPA2 angeht) scheint inzwischen problemlos zu funktionieren. Gerade WPA2 ist von Puppy noch nicht sooo lange gut unterstützt, was es für mich im Heimgebrauch bisher zum Killerkriterium werden ließ.

    Download Puppy Linux 5.2.5 (ISO-Datei, 128 MB)

    Ach ja: Wer einen EeePc als Netbook besitzt, kann sich eine eigens für den EeePc angepasste Puppy-Variante (Puppeee Linux) ansehen. Wehrmutstropfen ist allerdings, das diese noch auf der Version 4.x beruht. Und das bedeutet: Keine Ubuntu-Paketquellen!

     

    3 Kommentare Permalink | © 2011 by Netz 10 | Tags: , , , , , , , , , , ,

    Backups sollte man regelmäßig machen um im Falle eines System-Zusammebruchs o.ä. alle mehr oder minder wichtigen Dateien wieder aufspielen zu können. Wie ärgerlich ist es da, wenn die letzte Sicherung dann doch über ein Jahr oder länger zurück liegt, da man sich zwar vorgenommen hatte, das Backup durchzuführen, aber dieses letztendlich dann doch (un)absichtlich verschoben hat.

    Wer nicht ständig daran denken möchte, kann nun unter Ubuntu auf eine Vielzahl von Programmen zurück greifen. Diese reichen von Shell-Scripten ohne graphische Oberfläche bis zu ausgeklügelten Klick n' Do Programmen, welche eigentlich durchweg mit der Maus konfiguriert werden können.

    Nach einiger Überlegung die sich eigentlich auf pro und contra einer graphischen Oberfläche bezog, habe ich mich für "Back In Time" entschlossen: http://wiki.ubuntuusers.de/Back_In_Time

    sudo apt-get install backintime-gnome


    Nach der Installation ist unter Anwendungen ein neuer Menu-Punkt zu finden: Systemwerkzeuge. Darin findet sich "Back In Time" und "Back In Time (root)". Ein Klick auf BIT öffnet sodann auch das Programm.

    1. Als erstes stellen wir unter "Speicherort für Snapshots" das gewünschte Backup-Medium aus (in meinem Fall eine USB-Platte, welche ich zuvor gemountet habe).

    2. Nun klicken wir auf den Reiter "Einbeziehen" und wählen alle Ordner aus, die gesichert werden sollen. Dabei sei gesagt, dass BIT jede Datei nur einmal sichert und dann überprüft, ob sie sich geändert hat. Ist dem nicht so, wird ein Systemlink gesetzt, welcher nur wenig Speicherplatz in Anspruch nimmt, ganz gleich wie groß die eigentliche Datei ist. Im Klartext: auch große Dateien nehmen euch nicht bei jedem Backup erneut viel Speicherplatz weg, sondern nur einmal (oder bei Änderung an diesen).
    Wenn ihr ein volles Backup machen wollt, dann empfiehlt es sich, den Home-Ordner (unter Dateisystem -> home -> BENUTZERNAME) auszuwählen und im nächsten Reiter lediglich die NICHT zu sichernden Ordner auszuschließen.

    3. Im Reiter "Ausschliessen" können wir nun Muster, Dateien und Ordner auswählen, die NICHT gesichert werden sollen. Hier kommen z.B. Ordner hinein, welche ihr nicht sichern wollt, auch wenn ihr den Überordner zum Sichern ausgewählt habt.

    4. Der nächste Reiter "Automatisch entfernen" sorgt -wie der Name schon vermuten lässt- für eine automatische Löschung. Je nach Kriterium werden alte Backups automatisch entfernt. Dabei könnt ihr wählen zwischen:
    - Älter als x
    - Falls freier Speicher kleiner als: x
    - Smart remove ... sehr interessante Option, dabei werden folgende Kriterien angewandt:
    behalte alle Snapshots von heute und gestern
    behalte einen Snapshot von letzter und einen von vorletzter Woche
    behalte einen Shnapshot von jedem Monat diesen Jahres
    behalte einen Snapshot von jedem Jahr
    - Entferne benannte Snapshots nicht (hierbei werden von Hand benannte Snapshots grundsätzlich NICHT gelöscht)

    5. Nochmal alles prüfen und dann mit OK den Einstellungs-Dialog verlassen.

    6. Als letztes klicken wir oben links auf "Snapshot erstellen" und warten geduldig, bis das Backup beendet ist. Wenn ihr nun eingestellt habt, dass in Intervallen gesichert wird, braucht ihr euch eigentlich um nichts mehr kümmern, ansonsten müsst ihr ab und an Back In Time aufrufen und wieder auf "Snapshot erstellen" klicken.

    Meine erste Erfahrung mit dem neuen Ubuntu konnte ich anlässlich unserer Ubuntu Party am 30.4.2011 sammeln.

    Die Installation verlief problemlos, bis auf den Hänger mit dem Zeitserver. In den Räumlichkeiten von denen wir auch deren PC’s gebrauch machen konnten, hat ein Proxy Server verhindert, dass Ubuntu bei der Installation einen Zeitserver gefunden hätte. Das hatte zur Folge, dass sich die Installation wie aufgehängt hatte, und erst nach einige Zeit weiter lief. Lösung: Netzwerkstecker raus und danach wieder rein.

    Natürlich fällt einem sofort der neue Desktop “Unity” auf. Wie schon an vielen Orten beschrieben ist die Benutzung schon etwas anderes als man sich vom normalen Gnome gewohnt ist.

    Was ist anders ?

    • Eigentlich ist jetzt wirklich fast alles oben links. Daran muss man sich erst gewöhnen und danach hat man eigentlich keine Probleme mehr
    • Der Desktop ist wirklich etwas schlanker und hat fast nichts mehr wenn das System zum ersten mal startet
    • Man vermisst am meisten die Möglichkeit altgewohnte Programme zu starten

    Was hat sich geändert ?

    • Als eine der grössten Änderungen ist das starten der Programme. Auf der linken Seite sitzt nun der “Launcher” wo man seine beliebtesten Programme hat. Dieser verschwindet dann diskret sobald man ein Programm gestartet hat. Er kommt aber wieder zum Vorschein sobald man mit der Maus an den linken Rand fährt oder die “Super” Taste drückt
    • Programme die nicht im Launcher sind, startet man einfach mit einem Klick auf das Ubuntu-Symbol und gibt dessen Namen ein. Ist das Programm installiert, kann man es auch gleich starten. Will man das Programm im Launcher haben, dann wird dieser dort hinein gezogen und steht fortan zur Verfügung.
    • Die Systemeinstellungen erreicht man am einfachsten oben rechts beim Ausschaltbutton, mit dem Menüpunkt Systemeinstellungen

    Was hat mir bis jetzt nicht gepasst ?

    • Mir war die Icon Grösse im Launcher zu gross. Diese zu verändern ist grundsätzlich nicht schwierig. Man kann das aber nur machen, wenn man den „CompizConfig Einstellungsmanager“ installiert hat. Wie das geht hat donnerdrummel hier beschrieben
    • Ansonsten bin ich mit der Idee Unity zufrieden, muss mich aber noch daran gewöhnen

    Fazit

    Mein erster Eindruck vom “neuen Ubuntu” ist gut. Bis jetzt läuft das System stabil und ich finde alle meine Programme und Dateien. Wem das Unity nicht passt, der kann noch im Classic Modus starten um sich dann später an “Unity” zu gewöhnen. So wie man hört wird dann mit dem 11.10 nur noch Unity angeboten.

     

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    • Keine ähnlichen Artikel vorhanden

    …oder: Der Fall Canonical und die Community.

    Canonical Logo

    Und wieder einmal zeigt sich der Unsinn der Copyright-Assignments für FLOSS-Projekte. Während mittlerweile alle großen OpenSource-Projekte  mit vielen Mitarbeitern (OpenCore-Projekte ausgeschlossen) entweder direkt ohne CAs gestartet sind oder aber diese mit der Zeit aufgegeben haben oder dies planen (z.B. Qt), verlangt Canonical, die Firma hinter Ubuntu, für jede von ihr initiierte OpenSource-Software ein Copyright-Assignment. Das Spektrum reicht dabei von einfachen Bibliotheken zum Transfer von Menüs über DBus über die Indikator-Applets bis hin zu Großprojekten wie Unity.

    Mit Unterzeichnung des Canonical Contributor Agreements tritt ein Entwickler,  Grafiker oder Übersetzer quasi sämtliche Rechte an dem von ihm geschriebenen Code oder sonstigem Inhalt an Canonical ab. Canonical als alleiniger Rechteinhaber kann damit dann z.B. die Software unter einer beliebigen (auch proprietären) Lizenz relizensieren, was ansonsten ohne Zustimmung aller Beitragenden nicht möglich wäre. Aber es gibt noch weitere Probleme mit dieser CAs:

    Ich entwickle selbst aktiv im AppStream Projekt mit. Dieses Projekt wird die Installation von Software unter Linux wesentlich vereinfachen und “social features” wie z.B. Bewertungen und Reviews Distributionsübergreifend zu Verfügung stellen. Auf dem AppStream Treffen wurde das “Ubuntu Software Center“, welches unter Ubuntu standardmäßig installiert ist, als grafische Oberfläche für AppStream ausgesucht, da es den Zielen der Initiative in hervorragender Weise entspricht. Um das SC auch für andere Distributionen nutzbar zu machen, müssen einige Codeänderungen getätigt werden, die auch für Ubuntu schon länger geplant sind, wie z.B. die Portierung des SC auf PackageKit und die Nutzung der AppStream Infrastruktur. Michael Vogt, der Autor vom Software Center und Canonical-Angestellter (und APT-Mitautor) wollte sich bei Canonical dafür einsetzen, das CA vom Software-Center zu entfernen, sodass auch andere Entwickler Code dazu beitragen können.

    OpenSUSE hat daher für das AppStream-Projekt über den GSOC einen Studenten gefunden, der alle fehlenden Funktionen in das Software-Center implementieren wird – was an sich schonmal super ist. Dann erreichte uns jedoch eine Mail von Vincent Untz:

    [..] I’ve been involved in several discussions with Canonical about this, and
    the result appears to be that this [the CA] won’t change in the near future. What
    might happen, but keep in mind that it’s just my understanding, is a
    transition to Harmony once it’s ready:
    http://www.harmonyagreements.org/ [...]

    Canonical wird also das CA nicht entfernen, allenfalls das Projekt unter ein neues CA des eigens geschaffenen Harmony-Project stellen. Das ist aus folgenden Gründen schlecht:

    • Es gibt viele Entwickler, die ein CA nicht unterschreiben wollen – warum sollte jemand die Rechte an von ihm geschriebenen Code an eine Firma abgeben?
    • Es gibt bereits einige interessierte Entwickler, die aus dem einzigen Grund, dass es ein CA gibt, nichts zum Software-Center beitragen.
    • Angestellte OpenSource-Entwickler (z.B. von RedHat) dürfen generell keine CAs ohne spezielle Ausnahmegenehmigung unterschreiben. Das bedeutet z.B. dass Entwickler wie Richard Hughes oder Vincent keine einzige Zeile Code beitragen dürfen.

    Aufgrund dieser Tatsache wird momentan überlegt, entweder das CA allgemein zu akzeptieren und damit eine sehr langsame Entwicklung des Projektes in Kauf zu nehmen, einen Haufen von Patches zu verwalten, die jeder selbst dem SC hinzufügen muss, um die fehlende Funktionalität hinzuzufügen oder aber einen Fork des Projektes zu erstellen.

    Das pikante daran: Im Grunde hätten das USC und der (mögliche) Fork die gleichen Ziele. Es würde also vermutlich unnötige Doppelentwicklungen geben. Der einzige Grund für dieses Dilemma ist, dass Canonical sein CA nicht entfernen will (warum auch immer). Darum wird die Entwicklung eines gesamten Projektes unnötig ausgebremst. Außerdem ist dieses Verhalten absolut nicht fair gegenüber der anderen Distributionen, die ja ihre eigenen Ressourcen (es ist z.B. OpenSUSEs GSOC-Student! Richard ist RedHat/Fedora Entwickler, Vincent bei OpenSUSE tätig…) in ein Ubuntuprojekt stecken würden. Zudem tritt Canonical wieder einmal die eigene “Ubuntu-Philosophie” mit Füßen.

    Eine Entscheidung über das weitere Vorgehen mit dem USC ist noch nicht gefallen, ich habe selbst jedoch für einen Fork plädiert, obwohl ich es eigentlich hasse, doppelt zu entwickeln. Aber in diesem Fall ist es alleine schon deshalb nötig, um klare Verhältnisse in Sachen CA zu schaffen und keine halbgare Patchsammlung zu verwalten. Die meisten anderen Entwickler scheinen in eine ähnliche Richtung zu denken.

    Persönlich bin ich schwer enttäuscht von Canonical – und das nicht zum ersten Mal. Zu Unity werde ich später nochmal was schreiben, wenn ich das jetzt tue, wird diese Artikel zu lang. Aber Canonicals Umgang mit dem Banshee-Projekt und vor allem Marks in meinen Augen unangebrachte Antwort darauf, sowie zahlreiche weitere Fälle (z.B. die AppIndicator-Diskussion) und ihre CAs auf allen Code, den sie schreiben hat dafür gesorgt, dass Canonical inzwischen wirklich sogut wie alles Ansehen, das sie noch bei mir hatten, verspielt hat. Zuvor habe ich in vielen Diskussionen Canonical verteidigt, denn es ist ihr gutes Recht, profitabel werden zu wollen und die Mittel, die sie einsetzen, dürfen sie auch frei wählen. Aber der miserable Umgang mit der Community, die Uneinsichtigkeit von Fehlern, das bewusste Übergehen der Community (z.B. kontroverse Einstellungen der Distro absichtlich so kurz vor dem Freeze ändern, dass sie nicht mehr rückgängig zu machen sind) und diese Heuchelei von der “Ubuntu-Philosophie” sind mir inzwischen zu viel. Mittlerweile sehe ich an allen Ecken die Mitglieder verschwinden, beispielsweise nahm der Gründer von GetDEB vor einem Monat seinen  Hut und übergab das Projekt an seinen Stellvertreter, da er sich Ubuntu nicht mehr zugehörig fühlte. COO und CTO von Canonical sind gegangen. (Obwohl die Gründe da – zugegeben – reine Spekulation sind) Bisher mit Ubuntu zufriedene GNOME-Entwickler wechseln – als logische Konsequenz aus Natty – zu Fedora (ich habe die letzten zwei Monate 13 Wechsel gezählt – und ich bin kein bisschen in GNOME involviert) und Nutzer stellen fest, dass “Debian ja doch gar nicht so schlimm ist” oder dass Linux Mint, Arch und OpenSUSE das gleiche wie Ubuntu bieten können.

    Für mich ist der Wechsel zurück zu den Wurzeln schon fast abgeschlossen: Fedora und Debian Testing (oder Debian Rolling demnächst :) ) werden es wohl werden. (Obwohl ich natürlich auch weiter zu Ubuntu beitragen werde, vor allem wegen der tollen Ubuntu-Community)

    Zum Schluss eine Frage an Alle da draußen: Findet ihr eine logische Erklärung für Canonicals Verhalten? Profitgier ist es jedenfalls nicht, da sich z.B. über CAs kaum was verdienen lässt und die Banshee-Beträge marginal sind. In meinen Augen geht es Canonical viel mehr darum, die Kontrolle über Ubuntu und das Ubuntuversum zu behalten – aber warum? Und vor allem: Wenn es wirklich um die Kontrolle ihrer Produkte, ihrer Distribution geht, dann haben sie das FLOSS-Prinzip wirklich nicht verstanden.

    UPDATE: Zum selben Thema zu empfehlen ist auch ein Blogpost von Aaron Seigo. Desweiteren möchte ich nochmal klarstellen, dass es sich bei dem Beitrag oben natürlich um meine eigene, persönliche Meinung handelt. (Sollte aber eigentlich klar sein…) Zudem muss man natürlich zwischen CAs, die einer Firma z.B. das Recht zur Änderung der Lizenz innerhalb gewisser Grenzen (nur OSS z.B.) zugestehen (KDE) und CAs bei denen man das Copyright am Code abtritt (Canonical) unterscheiden. Und nicht zuletzt stelle ich natürlich auch nicht alles, was Canonical je geleistet hat in Frage, vor allem nicht als zufriedener Launchpad-Nutzer. (Aber auch das ist eigentlich klar im Artikel formuliert)

    Beim surfen bin ich auf einen Musikstreamingdienst Namens Soundcloud aufmerksam geworden. Anders wie herkömmliche Musikwebseiten wird Soundcloud nicht zentral gepflegt, sondern versteht sich vielmehr als Plattform für Künstler und Nutzer, die Ihre Musik Anderen zum anhören bereitstellen wollen.

    Um Musik bei Soundcloud hören zu können ist ein Konto notwendig. Hat man dieses eingerichtet kann es auch schon los gehen, unter dem Reiter „Tracks“ kann man nun Musik entdecken. Mit einem Klick auf den übergroßen „Play-Button“ wird das Lied gestartet. Wenn man etwas mitteilen will, kann man Kommentare im Lied hinterlegen. Genau wie bei meiner Entdeckung von Grooveshark habe ich mir mal den Flash-Musikplayer etwas genauer angesehen und genau wie anfangs bei Grooveshark lässt sich unter Iceweasel/Firefox mittels des Plugins Video DownloadHelper der MP3-Stream abgreifen. In diesem Sinne viel Spaß und nur freie Musik aufzeichnen, es findet sich auch das ein oder andere kommerzielle Angebot.

    Video DownloadHelper auf Soundcloud


    6. Mai 2011

    Das Full Circle Magazine hat die Spezialausgabe 2 zu Python veröffentlicht.

    Full Circle - Python Special Edition 2 Bei der vorliegenden Ausgabe handelt es sich um eine Zusammenstellung verschiedener bereits veröffentlichter Artikel der Serie „Programming in Python“ aus den Ausgaben 35 bis 42.

    • Program in Python - Part 9
      (MP3-Katalog 1)
    • Program in Python - Part 10
      (MP3-Katalog 2, XML-Dokumente)
    • Program in Python - Part 11
      (aktuelles Wetter von Webseite lesen)
    • Program in Python - Part 12
      (Wettervorhersage von Webseite lesen)
    • Program in Python - Part 13
      (Ausgaben mit Curses 1)
    • Program in Python - Part 14
      (Ausgaben mit Curses 2)
    • Program in Python - Part 15
      (Programmieren mit Pygame 1)
    • Program in Python - Part 16
      (Programmieren mit Pygame 2)

    Full Circle Magazine wird in englischer Sprache veröffentlicht.

    Creative Commons Attribution-ShareAlike 3.0 Unported LicenseDas Full Circle Magazine wird bereitgestellt unter Creative Commons Attribution-Share Alike 3.0

     

    Die LibreOffice-Box DVD steht ab sofort in einer aktualisierten Fassung, der Version 3.3.2-2 zum Download bereit.

    Der Nachfolger der OpenOffice.org PrOOo-Box ergänzt das Office-Paket LibreOffice um zahlreiche Cliparts, Icons, Labels, Logos, Muster-Dokumente und Vorlagen. Zusätzliche Open-Source Software wie der Browser Firefox oder das E-Mail-Programm Thunderbird sind ebenfalls auf dem DVD-Image enthalten.

    LibreOffice-Box 3.3 (The Document Foundation)

    LibreOffice-Box-DVD. cc-by-sa tdf

    Desweiteren enthält das 2,8 GB grosse DVD-ISO die LibreOffice-Installationsdateien für alle gängigen Betriebssysteme sowie eine portable Version der freien Office-Suite.

    Für Entwickler dürfte vor allem der auf dem Medium verfügbare LibreOffice-Quellcode (Source) sowie das SDK (Software Development Kit) interessant sein. Damit können sich Profis ihre ganz persönliche Version von LibreOffice kreieren.

    Die Document Foundation empfiehlt aufgrund des grossen Datenvolumens die LibreOffice-Box via BitTorrent anstatt über den FTP-Server herunterzuladen. Für alle, die nicht wissen wie das geht, hat Erich Christian eine Anleitung geschrieben.

    Links
    LibreOffice deutsch
    LibreOffice-Box deutsch
    The Document Foundation TDF (Organisation zur Förderung der LibreOffice Suite) englisch

    5. Mai 2011

    Sigil ist ein WYSIWYG-E-Book-Editor für Windows, Linux und Mac. Die Open Source Software steht unter der GPLv3 und erstellt digitale Bücher im epub-Format. Sigil trägt aktuell die Versionsnummer 0.4.0 RC1, allerdings gibt es auf der Website auch eine stabile Version. Vorgefertigte Pakete für Distributionen gibt es allerdings leider nicht.

    Bisher habe ich meine E-Books, die aus Texten bestehen, die im Netz verfügbar sind immer mit Hilfe von Calibre ins epub-Format konvertiert, doch leider formatierte mir die Software das ganze nicht immer so, wie ich es gerne wollte. Deshalb habe ich mich mal auf die Suche nach einer Alternative begeben und bin dabei auf Sigil gestoßen.

    Mit Sigil lassen sich epub-Dateien von Grund auf erstellen. Die Kapitel eines Buches können in einzelnen *.xhtml-Dateien angelegt werden. Zum Editieren gibt es den WYSIWYG-Editor, aber es gibt auch eine Code-Ansicht. Beides kann auch kombiniert angezeigt werden. Zugegeben: um das ganze richtig formatieren zu können ist es schon von Vorteil, ein bisschen HTML und CSS zu können. Aber auch ohne ist es möglich ein relativ ordentliches Ergebnis zu erzielen.

    Sigil Screenshot

    Zum Bearbeiten von Text und Code gibt es auch hier eine nette Funktion zum Suchen und Ersetzen von Inhalten. So kann man zum Beispiel massenhaft und in mehreren Dateien zum Beispiel Leerzeilen entfernen.

    Sigil gibt es derzeit leider nur englischer Sprache, aber ich finde das ist kein großes Problem. Installieren lässt sich das Programm über die .bin-Datei, die für Linux als 32-bit und 64-bit-Versionen auf der Website zum Download bereit steht.

    Die Datei muss vor der Installation ausführbar gemacht werden. Danach kann man Sigil mit Root-Rechten nach /opt/ installieren:

    cd /Pfad/zum/Download
    chmod +x Sigil-0.3.4-Linux-Setup.bin
    sudo ./Sigil-0.3.4-Linux-Setup.bin

    Beim Installieren wird eine Verknüpfung auf dem Desktop abgelegt. Möchte man das Programm ins Menü einsortieren muss man ihm erst einmal eine Kategorie verpassen:

    cd ~/Desktop
    sudo gedit sigil-desktop.desktop

    Dort fügt man einfach eine neue Zeile mit

    Categories=Office;

    ein, wenn das Programm im Büro-Menü erscheinen soll. Danach verschiebt man die Datei mit

    sudo mv sigil-desktop.desktop /usr/share/applications

    Nun sollte Sigil unter Anwendungen > Büro auftauchen.

    Möchte man Sigil wieder los werden lässt es sich recht einfach wieder deinstallieren:

    cd /opt/sigil
    sudo ./uninstall

    Um den Menüeintrag verschwinden zu lassen muss er mit

    sudo rm /usr/share/applications/sigil-desktop.desktop

    entfernt werden.

    Ich werde mit dem Editor sicher noch ein wenig rum spielen und ausprobieren. Jedenfalls finde ich, es ist eine gute Alternative zu Calibre.

    {lang: 'de'}

      Bei mir hier im Wohnheim gibt es das Problem, dass es kein WLAN gibt. Die superschnelle Internetverbindung kann mal also nur in seinem Zimmer nutzen, wo man einen LAN-Anschluss hat, aber nicht etwa in der Küche. Doch das ist gar nicht mal so schwierig, einen Computer mit Internetanschluss und installierter WLAN-Karte zum WLAN-Router umzufunktionieren.

      Das Stichwort dazu lautet Ad-Hoc Netzwerk. Das Prinzip stelle ich mal mit folgender Grafik dar:

      Prinzip des Ad-Hoc Netzwerks

      Der Host ist mit dem Internet verbunden und erstellt ein WLAN Netz. Auf dieses können die anderen Teilnehmer zugreifen und die Internetverbindung des Hosts teilen.

      Um in GNOME ein solches Netzwerk zu erstellen, klickt man auf das Network Manager Symbol im oberen Panel. Im daraufhin erscheinenden Menü klickt man auf “Neues Funknetzwerk erstellen…”.

      Dann kann man einen Namen für dieses Netzwerk eintippen sowie die Verschlüsselungsart festlegen. Ich empfehle hier ausdrücklich, das WLAN zu verschlüsseln! Es besteht auch für Dritte die Möglichkeit, dieses Ad-Hoc Netz zu sehen. Diese können dann nicht nur die Internetverbindung nutzen, sondern auch auf lokale Freigaben des Hosts zugreifen. Also Vorsicht!

      Die PCs die nun darauf zugreifen wollen, müssen sich ganz normal mit dem Internet verbinden. In der Liste der verfügbaren WLAN Netze müsste nämlich das neue Funknetz erscheinen.

      Genauere Einstellungen des Netzwerkes kann man vornehmen, indem man mit der rechten Maustaste auf das Network Manager Symbol im Panel klickt und “Verbindungen bearbeiten” auswählt. Im Reiter “Funknetze” ist das Ad-Hoc Netz erschienen und Feineinstellungen können dort vorgenommen werden.

      Noch ein kleiner Hinweis: Wer diese Methode für Onlinespiele anwenden möchte muss darauf achten, dass sich die Ping logischer weise erhöht.

      Ich nutze Unity schon eine ganze Weile und habe mich recht schnell an die Bedienung gewöhnt. Eigentlich fiel mir das nicht einmal sonderlich schwer und mit der Zeit habe ich immer neue Tricks und Kniffe gelernt. Darunter fallen auch die Tastenkürzel.

      Mein besonderes Augenmerk gilt heute dem Launcher und dem Application Place. Denn hier merkt man am deutlichsten die Tendenz zur Tastaturbedienung, die Unity offensichtlich anstrebt. Es geht los mit dem Programmstart und Programmwechsel über die Tastenkombination Super+Zahl. Programme, deren Icons sich bereits im Launcher befinden, werden gestartet oder erhalten den Fokus. Dabei muss man nicht einmal unbedingt wissen, ob das Programm bereits läuft oder nicht. Sollte das Programm noch nicht laufen dauert der “Fensterwechsel” einfach etwas länger.

      Ich habe die ersten sechs Icons auf allen Rechnern gleich belegt. Dadurch kann ich zwischen diesen Programmen blind umschalten. Der Launcher bräuchte dafür noch nicht einmal zu erscheinen. Lediglich für die Programme, die nicht im Launcher angepinnt sind, muss man etwas genauer hinschauen. Aber das sind seltener genutzte Programme, bei denen der zusätzliche Blick nicht ins Gewicht fällt.

      Einziger Nachteil, den ich bisher feststellen konnte, ist die Gruppierung bei mehreren Programmfenstern in ein Icon, beispielweise bei dem Platinenlayout Program Eagle. Hier arbeitet man in der Regel immer mit drei offenen Fenstern, die im normalen Gnome Panel einzeln dargestellt würden. Unity gruppiert alle Fenster in ein Icon und um zwischen den Fenstern zu wechseln muss man zuerst das Icon für den Expose Mode und anschließend das Fenster anklicken.

      Alternativ dazu könnte man natürlich die Fenster auf verschiedenen Desktops verteilen und mit Strg+Alt+Cursortasten umschalten oder die Tastenkombination Super+w verwenden.

      In den vergangenen Tagen habe ich häufiger wieder mit Gnome 2 arbeiten müssen, da mein “Arbeitsrechner” noch nicht aktualisiert ist. Dabei ist mir aufgefallen, wie umständlich und uneffizient das Gnome Menü eigentlich ist. Einen Punkt hatte ich in einem älteren Beitrag schon beschrieben. Das Bewegen der Maus durch ein hierarchisches Menü mit mehreren Ebenen. Mir passiert es leider immer wieder, dass ich vor dem erreichen eines Untermenüs einen anderen Menüpunkt erwische und das Untermenü wieder einklappt bzw das ein anderer Menüpunkt erscheint. Das ist nicht nur beim Gnome Menü so sondern generell bei den üblichen hierarchischen Drop Down Menüs.

      Das ist aber nicht alles. Man muss wissen, in welcher Kategorie sich das Programm befindet und man muss wissen, unter welchem Namen das Programm in dem Menü abgelegt ist. Und da gibt es meiner Meinung nach einige Probleme. Nehmen wir Evolution. Eigentlich ein Programm, das ich in der Kategorie Internet erwarten würde. Man findet es jedoch unter Büro. Auch andere Zuordnungen sind nicht immer ganz nachvollziehbar.

      Das zweite Problem sind die Programmeinträge ansich. Mal steht da eine Programmbeschreibung, mal der Programmname. Beispielsweise findet man Gedit unter dem Eintrag Texteditor. Sagt man einem unerfahrenen User, er soll mal Gedit starten, sucht er wohl erstmal eine Weile. Andere Programme wie Geany werden dagegen unter ihrem Programmnamen angezeigt.

      Hier kommt auch wieder Unity in’s Spiel. Mit Super+a öffnen sich die Anwendungen. Diese sind eingeteilt in “am häufigsten benutzt”, “installiert” und “Anwendungen zum Herunterladen”. Viele kritisieren die Unübersichtlichkeit, die vielen Klicks und die Platzverschwendung der unteren Reihe. Aus Sicht eines Mausschubsers, der seine Maus am liebsten mit beiden Händen schieben würde, ist das durchaus nachvollziehbar. Wer jedoch versucht, die Maßstäbe des alten Gnome Menüs auf Unity anzuwenden, macht etwas falsch.

      Unity versucht, die Bedienung zu ändern. Weg von der Maus, hin zur Tastatur. Und genau das ist in meinen Augen gelungen. Sofern ich weiß, womit ich es zu tun habe, bin ich mit Unity schneller am Ziel als mit dem alten Gnome. Ich drücke Super+a und anschließend tasch + Enter, und schon startet der Taschenrechner. Ich muss nicht wissen, unter welchem Programmnamen der Taschenrechner abgelegt ist. Anders herum geht es aber auch. Ich drücke Super+a und ge + Enter und schon startet Gedit, ohne wissen zu müssen, unter welchem Namen der Editor eigentlich abgelegt ist.

      Es spielt dabei keine Rolle, in welcher Kategorie das Programm abgelegt ist. Die Filterfunktion ist nur nötig, wenn man sich anders nicht mehr behelfen kann. Auch die angezeigten 5 Icons reichen in den meisten Fällen aus. Es ist also nur selten nötig, den Bereich  aufzuklappen. So reicht es zum Beispiel, wenn ich mail eingebe. Ich bekomme sowohl Evolution als auch Thunderbird angezeigt, egal ob die jetzt unter Büro oder Internet abgelegt sind.

      Einem Anfänger könnte man also einfach sagen: “drücke Super+a und gib ein was du suchst”. Sucht er zum Beispiel nach mail findet er ein Mail Programm, sucht er nach video findet er sowohl einen Video Player als auch ein Programm zur Videobearbeitung. Sucht er nach büro findet er LibreOffice usw.

      Und hier kommt auch die untere Zeile zum tragen. Findet man ein passendes Programm nicht bekommt man Vorschläge, was man verwenden kann.

      Es funktioniert zwar noch nicht perfekt, aber das wird sicher noch besser. Sucht man beispielsweise nach gedit, bekommt man alternativ Leafpad angezeigt. Ich nehme an, weil Gedit in der Beschreibung auftaucht. Sucht man dagegen nach musik, bekommt man Banshee nicht zu Gesicht, obwohl das Wort “Musik” in der Beschreibung steht. Warum das so ist kann ich nicht sagen.

      Insgesamt ist das Ganze, entgegen der häufigen Kritik, durchaus durchdacht. Wenn die Kinderkrankheiten kuriert sind kommt man meines Erachtens einfacher und schneller zum gewünschten Programm als mit dem Gnome Menü.

      Es wird auch häufig kritisiert, dass Unity die Art und Weise vorschreibt, wie der User den Desktop zu benutzen hat. Das gleiche galt jedoch auch für die erste Version von Gnome 2. Damals bekam man vorgeschrieben, dass Gnome Menü zu verwenden. Alternative Menüs oder Starter wie GnomeDo oder Kupfer sind auch erst im Laufe der Zeit entstanden.

      Sowohl Unity als auch die Gnome Shell wollen die Benutzung des Computers ändern. Das Konzept von Gnome 2 lebt in Xfce weiter. Wer also ein hierarchisches Menü vorzieht dürfte mittelfristig mit Xfce besser fahren. Es dürfte dagegen wenig Erfolgversprechend sein, aus Unity eine eierlegende Wollmilchsau zu machen, die die Wünsche aller User erfüllt

      4. Mai 2011

      Scheinbar hat meine endlose Suche nach einem vernünftigem Werkzeug für das zusammenstelln von Farbpaletten endlich ein Ende gefunden. Zwar habe ich tolle Sachen, wie SwatchBooker gefunden, das für das Erstellen von Paletten allerdings weniger toll ist. Das GNOME-Werkzeug Agave ist eher spartanisch und nervt vor allem durch die fehlende Möglichkeit der Palette einen eigenen Namen zu geben. Da kann man später nur mit einem Texteditor nachhelfen. Das Pendant von KDE KColorEdit schreckt mich einerseits ab, weil da ein Packager der Meinung war ich brauche nahezu jede verfügbare KDE-Bibliothek, macht 300MB. Auf der anderen Seite schreckt mich die Bedienung dieses Werkzeuges ab. Das ein Farbrad jetzt GTK-Selektor heisst und eine Farbskala dann KDE-Selektor ist ja schon rätselhaft, aber noch ergründbar. Das man das unter Extras verstellt wird schon mystischer, was aber die Plusicons im Gradienten-Selektor zu bedeuten haben ist ein absolutes Mysterium. Dafür ist die Kommentarfunktion nützlich.
      Jetzt bin ich aber auf ein Programm gestoßen, das meine Suche beenden wird – GPick. GPick sei ein weiterentwickelter Colorpicker, geschrieben in C++ mit dem GTK+ Toolkit, so der Entwickler zu diesem Werkzeug.
      Benutzer von Ubuntu und Debian haben an dieser Stelle Glück, das Projekt beitet auf seinen Seiten ein entsprechendes Binärpaket für das Programm an. Für Ubuntu gibt es auch eine PPA hier, die allerdings seit über einem Jahr nicht mehr aktualisiert wurde und auch nicht die neueste Version enthält.
      Nutzer von openSUSE kommen nicht darum sich die Software zu kompilieren, das funktioniert mit SCons, eine Anleitung findet man hier im Wiki des Projektes.

      Die Benutzeroberfläche wirkt durch die Anordnung mit Tabs auf jeden Fall nüchtern und aufgeräumt, was mir schon mal sehr gefällt.
      Auf den ersten Blick und direkt nach dem Start sieht GPick auch erst einmal wie ein Colorpicker aus. Aber schon hier zeigt sich, das in diesem Tool mehr steckt. Die meisten Tools bieten ja etwas wie eine kleine Voransicht, die die Farbe oder/und den Wert dieser anzeigt, schon bevor man die Farbe selektiert. Das bietet natürlich auch GPick, darüber hinaus gibt es aber ein weiteres nützliches Feature, wie ich finde. Eine vergrößerte Ausschnittansicht, wo sich der Cursor mit der Pipette gerade befindet. Das macht die Auswahl gerade kleinerer Dinge einfacher. Die gepickten Farben lassen sich übrigens einfach per Drag&Drop auf das rechte Feld für die Farben der zusammenzustellenden Palette ziehen. Dadurch werden die 6 Felder, die oben zur Verfügung stehen auch nicht wirklich voll. Ein wenig gewöhnungsbedürftig ist, dass die Default-Einstellung für das picken der Farbe nicht das klicken mit der Maus ist sondern die Leerzeichentaste. Das kann man aber unter den Einstellungen einfach umstellen.

      Bevor wir wir auf die Möglichkeiten, der Zusammenstellung der Paletten unter dem Reiter “Scheme generation” schauen, schnell noch etwas anderes was mir natürlich auch wieder gut gefällt. Vielleicht kann sich der ein oder andere noch an den Artikel “Farbpaletten aus Bildern mit Gimp generieren” erinnern. Das kann GPick nämlich auch unter dem Menüpunkt Tools findet man Palette From Image. Im sich öffnenden Dialogfenster braucht man nur noch den Pfad zum Bild angeben und die Anzahl der Farben die man davon möchte.

      Unter dem Reiter “Scheme generation” gibt es verschiedene Möglichkeiten Farben auszuwählen, als Default ist die Komplementärfarbe eingestellt, ein Feature was ich bei anderen Tools schwer vermisst habe. Es gibt aber auch noch andere Methoden der Farbermittlung wie Neutral oder Clash und einige mehr. Etwas gewöhnungsbedürftig ist, das ein Klick auf die Fläche mit der Farbe nicht, den Wert manuell eingeben läßt sondern die Farbe der Palette hinzufügt. Aber mit einem Rechtsklick öffnet sich ein Kontextmenü und dort kann man den entsprechenden Menüeintrag. Genauso hab ich mir das eigentlich gewünscht. Auch hilfreich, die Generierung verschiedener Sättigungs-/Helligkeitswerte von einer Farbe. Was auch nicht schlecht ist, ist die automatische Benennung der Farbe, diese wird mit Hilfe einer CIE94 Farbdifferenz-Funktion umgesetzt. Das funktioniert natürlich besser als eine manuelle Benennung, da die Wahrnehmung von Farben mit dem menschlichen Auge doch zu starken Differenzen führt. Und Namen, die gleichgesetzt mit einer Farbe sind doch nützlich, wer merkt sich schon eine Reihe von Hexwerten ;)

      Unter dem letzten Reiter “Layout preview” verbirgt sich noch ein Schmankerl, hier kann man die Farben der zusammengestellten Palette testen unter anderem an einer stilisierten Webseite mit Header, einem Menü, Buttons, Button mit Hoovereffekt und natürlich der Seite und den Fonts. Einfach per Drag&Drop auf das entsprechende Element ziehen und fallenlassen. So läßt sich eben doch schnell einmal die Wirkung testen. Übrigens kann man das dann auch noch als CSS exportieren lassen.

      Wenn wir schon beim Export sind, das GPick mit den gpl-Dateien von Gimp/Inkscape umgehen kann ist klar, aber auch hier kann es mehr. Importieren kann GPick Inkscape/Gimp Palette (gpl) und Adobe Swatch Exchange (ase). Exportieren kann das Programm noch zusätzlich Alias/WaveFront Material (mtl), der Nutzung alter Photoshop-Paletten für Linux-Umsteiger steht damit nichts im Wege.

      Wer sich jetzt GPick noch einmal in Aktion an schauen möchte, Alexandre Prokoudine hat da einen Screencast von knapp 6 Minuten Länge produziert, der wohl alle Features erklärt.

      Unity vs Gnome 2

      Nicht Wenige in der Ubuntu-Comunity wünschen sich Gnome 2 zurück. Vor allem, wenn man die Kommentare zu einigen Unity-Artikeln liest, wird deutlich: Vielen sind die Vorteile von Unity nicht klar.

      Deswegen habe ich 5 Gesichtspunkte zusammengetragen, unter dehnen ihr euch Unity einmal anschauen solltet:

      1. Das Menü ist immer an der gleichen Stelle

      Unity Global Menü

      Mit Unity ist das Menü immer an der gleichen Stelle. Egal wo sich das entsprechende Anwendungsfenster befindet. Das spart nicht nur Platz, sondern man erreicht (nach ein wenig Übung) auch die Menü-Punkte schneller. Fitt's Law lässt grüßen.

      2. Unity belohnt euch, wenn ihr Tastenkombinationen lernt

      Ubuntu Shortcuts Lover's Dream

      In Unity gibt es per default eine Menge sinnvoller Tastenkombinationen. So könnt ihr z.B. die Anwendungen im Launcher per <Super-Taste> + entsprechende Ziffer im Launcher starten. In diesem Artikel könnt ihr mehr über die Unity-Tastenkombinationen lernen.

      3. Unity versucht euch aus dem Weg zu gehen

      Generell versucht Unity möglichst unauffällig zu sein. Der Launcher verschwindet z.B. wenn ein Programm maximiert wird.

      4. Unity räumt mit unnötigen Icons im Panel auf

      Ubuntu Panel Icons

      Unity unterbindet, dass jedes dahergelaufene Programm sich im Panel festsetzt. Programme, die dass dürfen, müssen extra in eine Whitelist eingetragen werden. Das ist ein wirklich erfreuliches Feature; regt es doch Entwickler an, Oberflächen zu entwickeln, die ohne eine Panel-Icon auskommen.

      5. Unity-Lenses zeigen euch die Dinge, die euch interessieren

      Ubuntu Twitter Lense

      Mit Unity Lenses kann man Mashups von Dingen zusammenstellen, die einen Interessieren. Momentan gibt es schon einige fertige Lenses, z.B. für Reddit oder Twitter.

      Wie immer ist mein Artikel hoch subjektiv. Wenn ihr mir die Meinung geigen wollt: bitteschön!

      Nach einigen Experimenten mit einem 855GM-basierten Notebook (Fujitsu Siemens Amilo L1300), habe ich mich gestern entschlossen eine eigene Version von Ubuntu 11.04 zu bauen, welche komplett ohne Unity und Compiz daherkommt:

      Edit : Link und ISO-Datei entfernt, da ein Umstieg auf Ubuntu 11.10 dringend empfohlen wird

      Die ISO-Datei wurde in den folgenden Punkten verändert:

      • Es wurde das PPA mit meiner Version des Intel-Grafiktreibers aktiviert und die Treiber installiert.
      • Alle Updates, welche seit dem Erscheinen der Version 11.04 erschienen sind, wurden installiert. Dazu zählt auch das Kernel-Image 2.6.38-9 (basiert auf Kernelversion 2.6.38.4), welches im Moment noch in den Proposed-Quellen hängt. Dieses taucht im Moment noch unter “Veraltet/lokal” in Synaptic auf, da ich die Proposed-Quellen nach dem Aktualisieren der Kernel-Version wieder deaktiviert habe. Das Kernel-Image sollte aber den den nächsten zwei Wochen aber in die normalen Update-Quellen rutschen.
      • Deinstallation aller Unity und Compiz-Pakete inklusive Zeitgeist.
      • Deinstallation der Pakete “overlay-scrollbar” und “liboverlay-scrollbar” zur Deaktivierung der neuen Scrollleisten.
      • Deinstallation der Pakete zur Integration des Anwendungsmenüs in das obere Panel (“appmenu-gtk”, “indicator-appmenu”, usw.).
      • Deinstallation aller Mono-Pakete inkl. der davon abhängigen Anwendungen (Banshee, Tomboy, Gbrainy). *
      • Deinstallation von LibreOffice und des Pakets “example-content”.*
      • Aktivieren des Intel-Treibers per “xorg.conf”-Datei. Dieser Schritt ist notwendig, damit der Xserver auf 8xx-basierten Rechnern nicht automatisch den Framebuffer-Treiber lädt. Auf Rechnern ohne einen Intel-Grafikchip wird es deshalb wahrscheinlich Probleme geben.

      * Die Deinstallation musste ich durchführen, da die ISO-Datei ansonsten über 700MB groß gewesen wäre. Warum das Image trotz der Deinstallation von Unity und Compiz trotzdem über 700MB groß wurde, kann ich mir leider nicht erklären.

      Wer in meinem Artikel in dem ich meine Workshops und Vorträge, die ich in Wien halten werde ankündige, genau aufgepaßt hat, kann bereits erkennen welche Grafiken ich mit Inkscape und GIMP mit den Teilnehmern machen möchte. Die Inhalte für die Workshops zu Inkscape “Tango-Icon” und “Inkscape ist Magic” gibt es ja bereits als Tutorial und Screencast  im Blog zu finden.
      Fehlt eigentlich nur noch Anleitung und Screencast zum GIMP-Workshop, wie man sich einen Naavi aus dem Film Avatar zeichnet. Das Tutorial ist wie im Screencast bereits gesagt von einem Tutorial für Photoshop abgeleitet und angepaßt. Dieses Tutorial könnt ihr hier finden, dort gibt es auch das Bild mit dem ich gearbeitet habe. Da ich die Rechte dieses Bildes nicht kenner, verzichte ich hier auf eine bebilderte Anleitung.
      An Material braucht man auch noch eine entsprechende Ledertextur, hier kann man einige finden, die unter CC-Lizenz stehen. Das Pattern mit dem Zebrafell habe ich wie im Screencast erklärt via Google-Bildersuche gefunden, gespiegelt und zusammengesetzt und nachher ein wenig verzerrt. Die Augen sind wie gesagt aus einem Original herausgeschnitten, auch das kann man über eine Bildersuche finden.

      Hier noch einmal in einzelnen Schritten:

      1. mit dem Filter > Verzerren > IWarp die Nase in die Breite ziehen
      2. jetzt mit dem Werkzeug “freie Auswahl” die Hautpartien des Bildes auswählen
      3. auf die Auswahl Farben > Einfärben mit den Werten: Farbton 200, Sättigung50 und Helligkeit 0 anwenden
      4. das Ganze muss für die Arme natürlich wiederholt werden
      5. dann eine neue Ebene anlegen und rechts und links der Nase mit dem Werkzeug “freie Auswahl” die Seiten der Nase auswählen.
      6. die Auswahl mit einem dunklem Blau füllen und im Anschluß auf diese Ebene den Filter Weichzeichnen > Gaußscher Weichzeichner mit dem Faktor 15 ausführen. Die Ebene dann auf den Modus Überlagern setzen.
      7. Jetzt mit dem freie Auswahlwerkzeug Mund und Nase jeweils auswählen und mit Str+C und Strg+V jeweils einfügen und auf einer neuen Ebene verankern.
      8. Diese Ebenen werden jetzt wieder umgefärbt, wie oben nur dieses Mal mit den Werten: Farbton 269, Sättigung 18 und Helligkeit 15.
      9. Auf diese Ebenen wieder den Gaußschen Weichzeichner anwenden nur mit einem Faktor von 3
      10 die Sichtbarkeit der Ebenen etwas herabsetzen, so das die darunterliegenden Strukturen wieder erkennbar sind.
      11. die Ledertextur als Ebene öffnen und darauf achten, das diese ganz oben innerhalb der Layer sitzt, die Sichtbarkeit herabsetzen so das man das darunterliegende Bild erkennen kann. Meine Textur ist ein JPG und deshalb muss ich einen Alphakanal hinzufügen.
      12. Jetzt mit dem Radiergummi einfach alles überstehende wegradieren, für die Ränder einfach einen weichen Pinsel wählen.
      13. Die Sichtbarkeit der Ebene wieder auf 100% setzen und dann den Modus auf Überlagern
      14. Das Ganze wird in ähnlicher Form jetzt mit dem Zebrapattern wiederholt, hier wird der Modus auch auf Überlagern gesetzt und im Anschluß allerdings die Sichtbarkeit etwas angepaßt.
      15. Jetzt wird auf die Ebene mit dem Original-Bild wieder der IWarp-Filter angewendet, diese Mal bloß auf die Augen, damit diese größer und runder sind. Nicht erschrecken über das Ergebnis.
      16. Wir wählen mit dem Werkzeug “freie Auswahl” das Innere des Auges und schneiden es aus. Dann öffnen wir unsere Augen als neue Ebenen und setzen diese unter das Original, skalieren die Größe der Ebene des Auges, so dass es paßt und setzen die Augen an die richtige Stelle.
      17. Zum Schluß fehlen jetzt nur noch die Leuchtpunkte, dafür einen neuen transparenten Layer anlegen und darauf einfach mit Weiß und verschiedenen weichen Pinsel dies malen.
      18. Das Bild als PNG exportieren, ein neues Bild in der Bildschirmauflösung und schwarzem Hintergrund anlegen und unser gespeichertes Bild als neue Ebene darin öffnen. An die entsprechende Wunschposition verschieben und dann einfach die nicht passenden Dinge mit Schwarz übermalen. Fertig.

      So jetzt wünsche ich viel Spaß beim Nachmachen, Ergebnisse und Anregungen wie immer in die Kommentare.

      Die Dropbox-Entwickler sind derzeit ziemlich fleißig und haben vor kurzem eine neue Forum-Build zum Testen veröffentlicht. Außerdem gab es eine Reihe stabiler Versionen, die diverse Fehler beheben.

      Stabile Version:
      Das Stable Release trägt nun die Versionsnummer 1.1.31 und wurde bei mir leider nicht über die Autoupdate-Funktion von Dropbox verteilt. Die stabile Build bietet seit Version 1.1.23 ein neues Einstellungsmenü, behebt für Linux unter anderem Probleme der Icon-Darstellung im Appindicator. Weitere Bugfixes können im Forum nachgelesen werden. Vom Titel des Forum-Beitrags sollte man sich allerdings nicht irritieren lassen. Dort wurde wohl vergessen die Versionsnummer 1.1.29 auf 1.1.31 zu ändern.

      Die Version 1.1.31 kann für Windows, Mac und Linux heruntergeladen werden:
      Linux x86: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86-1.1.31.tar.gz
      Linux x86_64: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86_64-1.1.31.tar.gz
      Windows: http://dl-web.dropbox.com/u/17/Dropbox%201.1.31.exe
      Mac OS X: http://dl-web.dropbox.com/u/17/Dropbox%201.1.31.dmg

      Experimentelle Version:
      Mit der experimentellen Forum-Build 1.2.0 reagieren die Entwickler auf Meldungen über Sicherheitslücken in Dropbox. Diese Lücken werden mit der Forum-Build geschlossen, wie man im Forum lesen kann:

      • Security enhancements, an attacker will not be able to steal your computer’s account credentials just by copying configuration files to another machine.
      • New encrypted database format to prevent unauthorized access to local Dropbox client database.

      Auch diese Version kann für Windows, Mac und Linux heruntergeladen werden:
      Linux x86: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86-1.2.0.tar.gz
      Linux x86_64: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86_64-1.2.0.tar.gz
      Windows: http://dl-web.dropbox.com/u/17/Dropbox%201.2.0.exe
      Mac OS X: http://dl-web.dropbox.com/u/17/Dropbox%201.2.0.dmg

      Um die neue Dropbox-Version unter Linux zu installieren sollte man die gewünschte Version herunterladen (am besten direkt ins Home-Verzeichnis des Nutzers). Anschließend muss Dropbox gestoppt und der Ordner .dropbox-dist im Home umbenannt oder gelöscht werden. Nach dem Entpacken des huntergeladenen Archives kann die Dropbox wieder gestartet werden.

      Bei mir läuft aktuell die experimentelle Build und ich konnte bisher noch keine Probleme damit feststellen.

      Am 15. März 2011 kam der Mana Client 0.5.1 heraus. Auf diesem Client baut auch Invertika auf, aber darum soll es in diesem Artikel nicht gehen ;) Viel interessanter ist der letzte Satz in der Releaseankündigung:

      Let’s make testing.manasource.org a playable environment and let’s allow Invertika to switch from their old “stable” version of manaserv to the latest master branch!

      Invertika nutzt ja noch eine ältere Version des Manaserv Servers in welchem einige Funktionen (globale Variablen, Crafting, et cetera) noch nicht implementiert sind. Der Grund dafür ist das am aktuellen Master Branch von manaserv so viel geändert und entwickelt wurde, das dieser nicht wirklich produktiv einsetzbar war.

      Das hat sich in letzter Zeit allerdings spürbar gebessert so das das Invertika Team hofft in nächster Zeit auf den neuen Server umzusteigen, was sich dann sicherlich durch einige neue Features bemerkbar macht.

      Für alle welche Invertika nicht kennen: Dabei handelt es sich um ein freies (GPL) 2D-MMORPG welches unter http://invertika.org zu finden ist.

      3. Mai 2011

      Seit einigen Tagen habe ich auch GNOME 3.0 auf meinem Produktiv System. Das ganze System läuft auch sehr gut damit, mir sind nur 4 Punkte aufgefallen die aktuell wirklich nervig sind:

      • Rhythmbox geht beim klicken auf die Fenster schließen Schaltfläche komplett zu, ich habe mir damit bestimmt schon 50 mal die Musik ausgemacht! Leider konnte ich hierzu noch keine Einstellung finden, ein richtiges Tray gibts ja für GNOME 3.0 nicht mehr :-/
      • Im Gegensatz zu GNOME Do ist die Shell nicht so clever und startet einen eingegeben Befehl direkt wie man ihn eingibt, stattdessen geht Wikipedia auf. ALT-F2 ist ein Shortcut den ich schon 2 Jahre nicht mehr verwenden musste :-/
      • Gajim Integration, hier gibt es noch einiges an Arbeit zu tun. Zwar gibt es eine Integration über Extensions für die Shell, schöner wäre aber nativer Support von gajim für GNOME 3.0.
      • Empathy kann nach wie vor weder GPG, OTR noch E2E. Das ist einer der Hauptgründe warum ich es nicht verwenden kann.

      Ich denke aber auch das dies Dinge sind, die vielleicht schon mit 3.2 gefixt oder geändert werden. Bei Gajim müssen natürlich die Entwickler selbst aktiv werden!