ubuntuusers.de

22. November 2011

Da die Erweiterung nautilus-open-terminal schon seit einiger Zeit für Probleme sorgt und Nautilus abstürzen lässt (Fehlermeldung,Bericht bei Chris) und ich mir ohnehin mal die Python-Schnittstelle von Nautilus ansehen wollte, habe ich eine kleine Erweiterung geschrieben, die nautilus-open-terminal ersetzen soll, bis das Original wieder einwandfrei arbeitet.

Die von Chris angesprochenen Probleme mit “Nautilus-Python” scheinen insgesamt darauf zurückzuführen zu sein, dass für Nautilus-Erweiterungen die GTK3-Anbindung jetzt zwingend erforderlich sind. Durch die Ableitung von GObject ließen sich in meinem Fall also die Probleme beseitigen.

Wer sich meine “open-terminal”-Variante einmal ansehen möchte, kann dies bei GitHub tun. Abgelegt wird das Skript im Verzeichnis ~/.local/share/nautilus-python/extensions/, wobei ich das Verzeichnis in meinem Fall erst noch erstellen musste.

Da ich meistens immer ziemlich viele Sachen auf einmal am Rechner mache, kommt es bei mir häufiger vor, dass ich irgendwelche wichtigen Arbeiten vergesse oder einfach zu spät daran denke.
 
Um das zu verhindern verwende ich eine Stoppuhr für das Gnome Panel, die ich Euch vorstellen möchte.


Die Installation erfolgt aus den Ubuntu Paketquellen mittels
sudo apt-get install timer-applet .

Nach der Installation können wir die Stoppuhr zu jedem beliebigen Panel unter Gnome hinzufügen. Hierzu klicken wir mit der rechten Maustaste auf das “Panel” und wählen “Zum Panel hinzufügen …”
 
Im folgenden Fenster wählen wir den Eintrag “Stopphuhr” aus und gehen auf “Hinzufügen”
 

Klickt man nun mit der “rechten Maustaste” auf das neue Icon, stehen einem folgende Möglichkeiten zur Verfügung:
 
Presets
- die angelegten Zeiten, diese können ausgewählt werden und beginnen dann zu laufen
 
Manage Presets
- Verwaltung der angelegten Zeiten
 
Preferences
- Einstellungen für die Stoppuhr, wie die Anzeige der verbleibenden Zeit oder der akustischen Benachrichtigung

Klickt man mit der “linken Maustaste” auf das Icon kann man direkt eine neue Zeit festlegen. Die Einstellmöglichkeiten sind eigentlich selbsterklärend, mit “Save as Preset” kann die Zeit gespeichert werden, falls man sie öfters benötigt und mit “Start Timer” wird der ausgewählte Countdown gestartet.
 
Die Verbleibende Zeit des Countdowns wird im Panel angezeigt.

 
 
Ist der Countdown beendet wird man durch folgende Aktionen benachrichtigt:
 
Das Symbol blinkt mit dem Schriftzug “Beendet”.
Zusätzlich erfolgt eine Benachrichtigung.
 

Die Erinnerungen werden so lange angezeigt, bis die Information bestätigt wird.
 
Klickt man während eines Countdown auf mit der “linken Maustaste” auf das Symbol, wird die Zeit unterbrochen und man hat bei einem erneuten Klick folgende Möglichkeiten: “Stoppuhr beenden”, “Pausiert lassen” oder “Stopvorgang fortsetzen”.
 
 
 
Anleitung wurde mit Ubuntu 10.04 erstellt
 
Fazit: Dieses kleine Programm ist inzwischen ein unentbehrlicher Helfer für mich geworden. Als kleinen Tipp möchte ich noch hinzufügen, braucht man mehrere Zeiten, dann legt man einfach mehrere Einträge der Stoppuhr im Panel an.
 
 
Klar soweit?
Euer RSB

21. November 2011

Kaum größer als ein handelsüblicher USB Speicherstick kommt der kleine Zwerg daher.Er trägt den Namen Cotton Candy. Er beinhaltet auf einer kleinen Fläche 1 GB Ran und einen ARM Prozessor. Gespeichert werden die Daten auf einer MicroSD Karte ( 32 GB ).  Der Grafikausgang ist per HDMI gelöst. Damit lassen sich Fernseher perfekt um einen Mediaplayer Nachrüsten. Vorraussetzung zum Betrieb ist dann nur ein USB 2.0 Port am TV. Als Betriebssysteme stehen Ubuntu oder Android bereit.

Leider noch nicht auf dem Markt erhältlich, soll aber in der zweiten Hälfte 2012 erscheinen.

Weitere Informationen dazu auf golem.de

Ein Minicomputer mit der Grundfläche einer Kreditkarte auf welchem Linux läuft und welcher über HDMI, USB und einen LAN Anschluss verfügt für 25 €? Gibt es und nennt sich Raspberry Pi und soll bald verfügbar sein.

In dem Rechner werkelt ein ARM mit 700 Mhz, sowie eine Broadcom GPU welche auch in der Lage sein soll H264 Material bis 1080p ruckelfrei zu dekodieren. Die Videoausgabe erfolgt über HDMI, die Tonausgabe über einen Klinkenstecker (oder wieder über HDMI). Den Raspberry Pi gibt es dabei in zwei Varianten, die teurere (25 €) verfügt noch üben einen Ethernetanschluss mit maximal 100 MBit/s.

An Linux Distribution laufen auf dem Rechner Debian, Fedora und ArchLinux. Ubuntu entgegen anders lautender Gerüchte allerdings nicht, was wohl der fehlenden ARM Unterstützung geschuldet sein soll. Alles in allem ist der Raspberry Pi ein sehr interessantes Gerät mit einer Fülle von Anwendungsmöglichkeiten (z.B. als Streaming Client). Bestellt werden kann er (sobald verfügbar) unter http://www.raspberrypi.org.

Weitere Informationen gibt es unter:
http://de.wikipedia.org/wiki/Raspberry_Pi_Foundation

20. November 2011

Google Music Frame, den ich schon einmal vorgestellt habe, hat einen neuen Namen und unterstützt jetzt auch noch mehr Streamingangebote, neben Google Music, u.a. Grooveshark und 8Track.

Zusätzlich hat er jetzt einen anderen Namen, nämlich Nuvola Player (ital. Wolke), was natürlich auch deutlich mehr Sinn macht, wenn man mehr in die Unterstützung vieler Streamingclients geht.

Macht für mich jedenfalls eine sehr gute Entwicklung, mit schnellen Veröffentlichungen neuer Features und sollte man weiterhin im Auge behalten.

(via http://www.omgubuntu.co.uk/2011/11/google-music-frame-gets-renamed-adds-grooveshark-8track-support/?utm_source=twitterfeed&utm_medium=twitter&utm_campaign=Feed%3A+d0od+%28OMG!+Ubuntu!%29 )

OMG!Ubuntu! Everything Ubuntu. Daily. Skip to content. Apps; Reviews; Editorials; News; Interviews. Search for: 12.04 Updates; RSS Feed; Twitter; About Us; Submit a Tip. banner banner banner banner. M…

Ich habe den Vormittag mal genutzt und den Artikel über den Raspberry Pi in der deutschen Wikipedia etwas erweitert (und mit der Wikipedia Syntax gekämpft). Von  3.850 Bytes in der vorherigen Revision auf 12.186 Bytes in der neuen. Kleinere Änderungen hatte ich vorher auch schon vorgenommen.

Was ist der Raspberry Pi:
Raspberry Pi (dies ist eine Alpha Version und größer als das finale Design). Quelle: engl. Wikipedia Ersteller:  Paul Downey, Lizenz: Creative Commons Attribution 2.0 Generic Licence.

Aber was ist dieses Raspberry Pi überhaupt wird sich der Leser nun fragen. Letztlich ist es nur ein Computer. Dieser wird von der Raspberry Foundation entwickelt um Schülern und Studenten den Spaß an Computern (und am Programmieren) näher zu bringen. Alle anderen können das Gerät aber auch kaufen. Da Schulen und Unis ein knappes Budget haben, wird es für 18 (Version A) bzw. 26€  (Version B) verkauft. Der Verkauf soll Anfang Dezember starten.

Spezifikationen:

Von den Spezifikationen her ist es unglaublich  (und das alles auf der Grundfläche einer Kreditkarte):

Version A:

Broadcom SoC Chipsatz, 700Mhz ARM11 CPU, 128 MB RAM, 1 USB Port, Composite und HDMI  zur Bildausgabe, 3,5mm Klinkenstecker oder HDMI zur Tonausgabe, SD-Kartenslot zur dauerhaften Datenspeicherung, diverse Anschlussmöglichkeiten für Datenbusse (GPIO, SPI, I²C, UART), Leistungsaufnahme von 2,5 Watt (Stromversorgung über Micro USB oder 4 AA Baterien)

zusätzlich hat Version B noch folgende Goodies:

256 MB RAM, 2 USB Ports, 10/100 Mbit Ethernetanschluss, Leistungsaufnahme von 3,5 Watt

Leistung:

Zahlreiche Demos zeigen wie leistungsfähig der „Raspi“ ist.

Hier ein Beispiel.  Quake 3 mit Antialiasing in 1080p (die FPS waren laut Video schon höher):

Der Chipsatz bietet außerdem Unterstützung für OpenGL ES 2.0.  Dies ist interessant da  KWin, Mutter und Compiz dies fürs Compositing nutzen können. FullHD Video Wiedergabe (1080p30 H.264 high-profile) und Ausgabe über HDMI stellt auch kein Problem da.

Einsatzmöglichkeiten:

Durch den günstigen Preis und die geringe Leistungsaufnahme ist das Board eine ideale Bastelkiste. Ich habe mir schon diverse Einsatzmöglichkeiten überlegt:

  • Musik Streaming-Client (WLAN Stick und Lautsprecher würden benötigt)
  • Homeserver für diverse Kleinigkeiten (Filesharing, Drucker, …)
  • Dropbox-Alternative mittels Owncloud am eigenen Router (und externer Festplatte)
  • als ganz gewöhnlicher Desktop-PC (wobei man da sehen muss wie sehr sich der wenige Speicher bemerkbar macht)
  • HTPC (Die XBMC Leute arbeiten schon dran. Problem ist hier die fehlende Unterstützung von 5/7.1 Audiofeatures)
  • Digitaler Bilderrahmen (mit einem ausgemusterten Monitor)

Weitere Ideen aus den Kommenataren:

  • Eine komplette FreedomBox: http://freedomboxfoundation.org/
  • Ampelsteuerung für den Bogenstand
  • Diaspora Server
  • Homeserver für TVHeadend, Syslog/MySQL DropZone, VPN Gateway, XMPP und vieles mehr.
  • Erweiterung eines Roboters
  • Wetterstation mit autonomer Stromversorgung (Solar/Wind)
  • Car-Entertainment-System
  • PXE-Server mit allerlei Rettungs-Systemen, Backup-Images, Live-Systemen, Analyse Tools und und und
  • Hardwarebasis für ein Internetcafé in armen Ländern
  • Mobiler Download-Server der sich in offene WLANs einhängt (automatisch).
  • OSM Tracker mit GPS-Maus
  • Zugangspunkt für Picidae http://de.wikipedia.org/wiki/Picidae_(Website)
  • Schmales Linux mit mini GUI Webmin zur Administration ( http://webmin.com/)
  • SoGo als workgroup software- administriert mit Webmin (http://www.sogo.nu)
  • Datenspeicher über NAS

Habt ihr weitere Ideen? Dann schreibt sie in die Kommentare und ich werde später die Liste erweitern.

Sei dem ich ein Thinkpad besitze, stehe ich vor der luxoriösen Situation den Cursor sowohl mit Touchpad als auch mit Trackpoint steuern zu können. Da ich schon immer großer Trackpoint-Fan war, hatte ich das Touchpad bisher im BIOS deaktiviert.

Touchpad und Trackpoint
André Karwath (cc-by-sa)

Da der Rechner jedoch immer mal wieder von Gästen benutzt wird, die dann hilflos auf das Touchpad einprügeln und sich wundern, warum nichts geschieht, habe ich mich entschlossen, dass Touchpad wieder zu aktivieren und erst beim Login in meinen Account abschalten zu lassen.

Sehr einfach ist die Lösung den Befehl

synclient touchpadoff=1

automatisch beim Start ausführen zu lassen. Dies hat allerdings den Nachteil, dass sich das Touchpad dann nicht mehr einfach über die Tastenkombination „FN + F7″ aktivieren lässt, sondern nur mit dem Befehl

synclient touchpadoff=0.

Die Lösung, die ich verwende, ist wesentlich einfacher und über diesen Nachteil erhaben. Da Ubuntu bestimmte Einstellungen beim Abmelden speichert, kann das Touchpad auch einfach per Tastenkürzel in der laufenden Sitzung deaktiviert werden. Ein Abmelden speichert diesen Zustand. Beim Wiederanmelden wird der gespeicherte Zustand geladen und das Touchpad ist somit bei jeder Anmeldung automatisch deaktiviert und kann durch die Tastenkombination jeder Zeit wieder aktiviert werden.

19. November 2011

Momentan läuft in den Mailinglisten von Ubuntu eine Diskussion, ob ab Ubuntu 12.04 nur noch ein Kernel mit aktivierter PAE-Unterstützung ausgeliefert werden soll bzw. dieses nur noch CPUs unterstützen soll, welche PAE anbieten.

Da momentan sehr viel Missverständnisse über die Diskussion existieren, hier mal eine kleine Zusammenfassung der Zusammenhänge:

Was ist PAE?

PAE steht für Physical Address Extension und ermöglicht es 32bit-Prozessoren (Oder 64bit-fähigen CPUs unter einem 32bit-Betriebssystem), welche dieses Feature unterstützen, 4GB oder mehr RAM zu adressieren bzw. zu benutzen. Näheres zu den technischen Details und der nutzbaren Menge an RAM siehe auch im dazugehörigen Wikipedia-Artikel.

Das Feature war früher vor allem für Server interessant, als es noch keine x86-kompatiblen 64bit-fähigen CPUs gab. In der heutigen Zeit ist es für diejenigen Leute interessant, welche exakt 4GB RAM verbaut haben und dieses vollständig oder nahezu vollständig (Hängt von der Hardware ab) unter einem 32bit-Betriebssystem nutzen wollen. Ohne PAE lassen sich in der Regel bei einem 32bit-Betriebssystem nur 3,25GB von den verbauten 4GB RAM benutzen. Mit PAE sind es dann meistens die vollen 4GB RAM.

Welche CPUs unterstützen PAE?

Hier wird es ein wenig schwierig. Laut dem englischen Wikipedia-Artikel zu PAE unterstützen alle CPUs seit dem Intel Pentium Pro (erschienen 1995) und dem AMD Athlon XP (erschienen 2001) PAE, mit Ausnahme einiger Modelle des Pentium M und des Celeron M mit 400 MHz Bustakt (Via und Cyrix habe ich mal außen vorgelassen, da sich deren Marktanteil unterhalb der 1%-Marke bewegen dürfte).

Die Diskussion dreht sich hierbei vor allem um die Pentium-M-CPUs, da sich diese, wegen ihrer sehr guten Stromsparfunktionen, sehr gut verkauften und die dazugehörigen Notebooks sehr häufig auch heute noch im Einsatz sind. Ältere AMD-CPUs scheinen weniger relevant zu sein, wahrscheinlich weil diese kaum noch im Einsatz sind.

Um die Sache noch etwas mehr einzugrenzen, habe ich versucht eine genaue Liste mit Nicht-PAE-fähigen Pentium-M-CPUs zu finden, was gar nicht so leicht ist, denn selbst Intel listet dieses Feature nicht explizit in ihren CPU-Tabellen auf bzw. schreibt bei allen Pentium-M-CPUs grundsätzlich “Physical Address Extensions / 32bit”, egal ob PAE jetzt unterstützt wird oder nicht.

Was aber ein guter Anhaltspunkt für die PAE-Fähigkeit von Pentium-M-CPUs ist, ist das sogenannte NX-Bit (Von Intel auch XD-Bit genannt). Unterstützt die Pentium-M-CPU das NX-Bit, dann unterstützt sie auch PAE. Fehlt die Unterstützung für das NX-Bit, dann unterstützt sie auch kein PAE.

Anhand des Artikels “Modellnummern von Intel-Prozessoren” und dem Artikel zum Pentium M, lässt sich relativ schnell herausfinden, welche Pentium-M-CPUs das XD-Bit unterstützen. Im Einzelnen sind das folgende Modellnummern:

  • Fast alle Pentium M mit 533MHz FSB (Ausnahmen sind die LV und ULV-Modelle der CPUs; LV = Low Voltage, ULV = Ultra Low Voltage, beide Varianten finden sich nur in Subnotebooks).
  • Die Modelle 735A und 745A mit Dothan-Kern, aber 400MHz FSB.
  • Die LV-Modelle 758 und 778 und das ULV-Modell 713 (Ausnahmen von den Ausnahmen ;-) )
  • Alle Celeron M mit 1MB Cache (Ab der Modellnummer 350).

Wie finde ich am einfachsten heraus welche Pentium-M-CPU verbaut wurde?

Das ist leider nicht so einfach möglich, da alle Tools, die ich kenne und getestet habe, nicht explizit die Modellnummer ausspucken, sondern nur die Model-ID. Man könnte natürlich direkt auf der CPU nachschauen, nur muss man dazu, in den meisten Fällen, das verwendete Notebook komplett zerlegen.

Am einfachsten ist es den verwendeten Chipsatz und die Größe des Cache-Speichers  als Anhaltspunkt heranzunehmen:

lspci | grep "Host bridge"

und

grep "cache size" /proc/cpuinfo

Wurde ein Chipsatz der 800er Baureihe (Im Speziellen der berühmt-berüchtigte 855GM) verbaut und  der Pentium-M besitzt 1MB Cache oder 512KB Cache bei einem Celeron-M, dann ist die Chance nahezu Null eine PAE-fähige CPU zu besitzen (Ausnahme sind die Modellnummern 735A und 745A). Besitzer eines 900er Chipsätzes und 1MB Cache bei einem Celeron-M und 2MB Cache bei einem Pentium-M können dagegen gelassen in die Zukunft sehen, denn diese unterstützen PAE (Ausnahmen die LV und ULV-CPUs).

Der folgende Befehl kann dann als letzte Gewissheit dienen:

grep "pae" /proc/cpuinfo

Spuckt der Befehl jetzt eine Liste mit “flags” aus (“pae” wird dabei rot markiert), dann unterstützt die CPU PAE und man ist aus dem Schneider. Kommt dagegen keine Ausgabe, kann man davon ausgehen, dass die CPU kein PAE unterstützt.

Bei neueren CPUs und bei manchen Desktop-Motherboards und Notebooks kann es sein, dass im BIOS das NX bzw. XD-Bit standardmäßig deaktiviert wurde und dadurch auch kein PAE aktiviert ist. Wenn man also z.B eine Core2Duo-CPU oder neuer besitzt und der letzte grep-Befehl nichts ausspuckt, sollte man seinem BIOS mal einen Besuch abstatten

Viel Blabla, aber was würde das jetzt konkret für Ubuntu 12.04 heißen?

In der Diskussion zu Ubuntu 12.04 war davon die Rede, einen Nicht-PAE-Kernel nur noch über die Universe-Paketquelle anzubieten. Das würde bedeuten, dass man Ubuntu nicht mehr direkt auf Nicht-PAE-fähiger Hardware installieren könnte, ein Upgrade aber immer noch möglich wäre, da man nach dem Upgrade und vor dem Reboot den Nicht-PAE-Kernel aus Universe installieren könnte. Auch würde sich bestimmt jemand finden, der eine angepasste Installations-CD mit einem Nicht-PAE-Kernel anbietet, wodurch auch eine direkte Installation möglich wäre.

Momentan ist das Ganze aber noch eine reine Diskussion und nichts davon ist spruchreif. So liegt z.B. der aktuelle Kernel der Entwicklungsversion von Ubuntu 12.04 immer noch als Nicht-PAE-Variante vor. Auch scheint die Diskussion auf der Mailingliste eingeschlafen zu sein.

Fazit

Meiner Meinung nach, sollte Canonical noch bis Version 14.04 auf eine solche Maßnahme verzichten. Da Ubuntu 12.04 bis April 2017 mit Updates versorgt wird, könnten Besitzer von Nicht-PAE-fähigen CPUs ihre Hardware zuverlässig bis zu diesem Zeitpunkt weiterbetreiben (Solange sich diese nicht ins Siliziumnirvana verabschiedet).

Da ein Nicht-PAE-Kernel sich nur durch eine Handvoll Kernel-Config-Optionen von einem PAE-Kernel unterscheidet, ist die Pflege von ersterem kein größeres Thema. Im Moment kommt diese Diskussion noch zu früh, da viele Centrino-Notebooks der ersten Generation noch zuverlässig ihren Dienst verrichten und für die meisten Alltagsaufgaben noch leistungsfähig genug sind.

    Kurz vor der Winterpause – oder in diesem Fall: Kurz vor dem Topspiel heuteabend, habe ich noch einen Kurztipp für euch!

    Eingefleischte Bundesligafans werden sicherlich die Radiostation 90elf (im Internet und Digitalradio empfangbar) kennen. Dort werden alle Bundesligaspiele live und in voller Länge übertragen. Das Programm ist über Medienprogramme kostenlos empfangbar, darum erkläre ich mal, wie man das Programm ganz einfach über die Unity Dash (oder vergleichbare Systeme) starten kann.

    Damit der Eintrag auch gut aussieht, ist es ganz sinnvoll, ein hübsches Bildchen dafür herunterzuladen. Ich habe dafür das Bundesliga-Logo genommen, das es z.B. bei der Wikipedia gibt. Um die Festplatte aufgeräumt zu halten, habe ich es gleich in einen passenden Ordner geladen (für diesen braucht man Rootrechte, darum das sudo davor):

    sudo wget http://upload.wikimedia.org/wikipedia/de/4/41/BuLi_Logo_2010.svg -O /usr/share/pixmaps/buli.svg

    Den Starter erstellt man entweder analog zu dem für Blender im Homeverzeichnis, oder global für alle Benutzer des Systems in /usr:

    gksu gedit /usr/share/applications/bulivlc.desktop

    Daraufhin öffnet sich Gedit. Hier gibt man folgenden Text ein und speichert es ab:

    [Desktop Entry]
    Name=Bundesliga Konferenz bei 90elf
    Terminal=false
    X-MultipleArgs=false
    Type=Application
    Comment=Bundesliga Radio bei 90elf
    Exec="vlc" "http://85.239.108.41/90elf_basis_hq"
    Categories=AudioVideo;
    Icon=/usr/share/pixmaps/buli.svg

    Wer statt der Konferenz auch die einzelnen Spiele hören möchte, kann die URL entsprechend anpassen. Die URLs findet ihr z.B. bei ubuntuusers.

    Wenn man nun z.B. „Bundesliga“ in die Unity Shell eingibt, sieht man den Eintrag.

    18. November 2011

    Heute möchte ich Euch ein Kalender-Plugin für Piwik vorstellen. Mit diesem Plugin erhält man eine tabellarische Jahresübersicht der “Eindeutigen Besucher”.
     
    Die Installation gestaltet sich recht einfach und ich baue hier auf die Piwik-Installation aus der Anleitung “Webanalyse mit Piwik” auf.

     

    Zuerst legen wir mit mkdir tmp im Webverzeichnis ein temporäres Verzeichnis an. Anschließend laden wir in diesem Verzeichnis die aktuelle Version des Plugins herunter:
      wget http://www.bedv.at/download.php?file=5.+Diverses%7CPiwik_Calendar_latest.zip
     

    Nun das Archiv mit    unzip latest.zip entpacken.
     

    Mit    cp -r Calendar/ ../piwik/plugins/ kopieren wir das Verzeichnis “Calendar” in das Piwik Pluginverzeichnis.
     
    Als nächsten Schritt rufen wir Piwik mit http://tortuga.pirates-of-art.de/piwik/ im Browser auf. Unter “Piwik => Einstellungen => Plugins” kann das Kalender-Plugin aktiviert werden.
     

    Nun wechseln wir auf das “Dashboard” und anschließend sieht man oben im Menü einen neuen Eintrag “Kalender”. Hier erscheint nun die folgende Kalenderübersicht.
     

     
    Anschließend muss nur noch aufgeräumt werden in dem wir das “tmp-Verzeichnis” wieder löschen.
     
    Anleitung wurde mit Ubuntu 10.04 erstellt
     
    Fazit: Diese Plugin ergänzt Piwik um einen Kalender, der einem für das letzte Jahr die “Eindeutigen Besucher” ausgibt. Gegliedert in tägliche Besucher, monatliche Besucher, monatlicher Durchschnitt und die jährliche Summe.
    Mir persönlich hat so eine Ansicht in Piwik gefehlt, da man hiermit sehr gut die einzelnen Monate vergleichen kann.
     
    Quelle: Das Plugin stammt von BEDV – “mehr Informationen zum Plugin”
     
    Klar soweit?
    Euer RSB

    ShellShape ist eine Erweiterung für die Gnome-Shell und erweitert diese um Tiling, also das überlappungsfreie Anordnen von Fenstern. ShellShape besteht streng genommen aus zwei Teilen: Der Gnome-Shell Extension und einem Fork von Mutter, dem Compositing- und Fenstermanager der Gnome Shell. Um zu verhindern, dass die Installation von ShellShape direkt die Originalversion von Mutter von der Platte fegt, wird auf der Seite des Projekts die Verwendung von ZeroInstall empfohlen, da der Konflikt so vermieden wird und die Systemdateien unangetastet bleiben.

    shellshape demo von Tim Cuthbertson auf Vimeo.

    Ich habe die Pakete allerdings über das Arch User Repository bezogen, aktuelle PKGBUILD-Dateien finden sich in den Kommentaren der jeweiligen Pakete.

    Nach erfolgreicher Installation sollte die Gnome-Shell neu gestartet (Alt+F2, dann das Kommando “r” absetzen) und die ShellShape Extension aktiviert werden. In der Leite oben erscheint dann ein neuer Eintrag. Hier kann zwischen normalen Modus (“Floating”) und Tiling (merkwürdiger Weise übersetzt mit “Horizontal”) gewechselt werden. Das ist schonmal eine ganz gute Sache, da so schnell und bequem zwischen den beiden Modi gewechselt werden kann, abhängig davon, was und wie man gerade arbeiten möchte.

    Wie von anderen Tiling-Managern gewohnt, bietet auch ShellShape eine ganze Reihe von Tastenkombinationen, mit denen die Fenster vergrößert, verkleinert und ausgetauscht werden können. Grundsätzlich funktioniert das Ganze auch wie erwartet. Allerdings hatte ich doch den Eindruck, dass es öfter zu Problemen und Darstellungsfehlern kommt, wenn man Fenster vergrößert / verkleinert / verschiebt oder sich sogar mit der Maus daran zu schaffen macht. So war es für mich dann doch öfter umständlich und müßig, das Layout zu erreichen, das intendiert war.

    Hier könnte etwas mehr Einarbeitungszeit sicher Abhilfe schaffen. Insgesamt erscheint mir die Idee sehr attraktiv, einen modernen Desktop mit Tiling-Funktionen zu versehen, die je nach Anwendungsfall ein- und abgeschaltet werden können. Das macht viel Spaß, wenn man für bestimmte Arbeiten die Tiling-Funktionen möchte, ansonsten aber eher im Normalbetrieb unterwegs ist. Allerdings hatte ich dann doch den Eindruck, dass besonders die Mausbedienung der Tiles noch nicht ganz ausgereift ist – und das wäre mMn wirklich sinnvoll, wollte man die Gnome-Shell tatsächlich mit Tiling verheiraten. Auch die Unterstützung zweier Monitore im TwinView-Betrieb ließ in meinem kurzen Test zu wünschen übrig.

    So gesehen kann ich einen kurzen Test durchaus empfehlen. Für eine dauerhafte Verwendung ist die Erweiterung zur Zeit wohl noch nicht ausgelegt, sogar die offizielle Seite rät davon ab.

    In der Uni habe ich das Problem, dass auf den Rechnern nicht die aktuellsten Versionen aller Programme installiert sind. Bei manchen macht das nicht so viel aus, bei anderen ist das nicht so gut, denn bestimmte Funktionen bieten nur die aktuelleren Programme.

    Chromium ist da so ein Fall (Sync Funktioniert z.B.nicht) und da ich, auf den Uni-Rechnern mangels Rechten nicht einfach ein Programm installieren kann, habe ich mir ein kleines Skript gebastelt, dass einen aktuellen Snapshot runterlädt und dann die neuste Version ausführt.

    #!/bin/bash
    #Get the latest Chromium-Version
    latest=`curl http://commondatastorage.googleapis.com/chromium-browser-snapshots/Linux/LAST_CHANGE`
    #Download Chromium
    wget --progress=bar:force -O /tmp/chrome-linux.zip http://commondatastorage.googleapis.com/chromium-browser-snapshots/Linux/$latest/chrome-linux.zip 2>&1 | zenity --title="Download Chromium-Version $latest!" --progress --auto-close --auto-kill --width=400
    #Unzip
    #Exclude Erstellen
    exclude=`unzip -Z -1 /tmp/chrome-linux.zip |grep -E 'locales.[^d]+[^e]*pak'| tr "\n" " "`
    #Menge der Dateien bestimmen
    filecount=`unzip -l /tmp/chrome-linux.zip |grep -v -E 'locales.[^d]+[^e]*pak'|tail -n 1|tr -s " " |cut -d " "  -f 2`
    #Lösche alte Version
    rm -R $HOME/chrome-linux/
    unzip -qq -o /tmp/chrome-linux.zip -d /$HOME/ -x $exclude &
    exec 3> >(zenity --progress --title="Entpacken" --percentage=0 --auto-close --width=400)
    while [ `ps -A |grep -c unzip` = "1" ]; 
    do
    count=$((`ls -R /$HOME/chrome-linux/ |wc -w`-4))
    Prozent=$((($count*100/$filecount)))
    echo "$Prozent" >&3
    done
    killall zenity
    #Aufräumen
    rm -R /tmp/chrome-linux*
    #Öffne neue Version
    cd $HOME/chrome-linux/
    ./chrome-wrapper --allow-outdated-plugins &
    exit 0

    Dies ist sicher nicht die eleganteste Lösung, aber das Skript gibt aus was es gerade tut und macht das was es soll zufriedenstellend. Der Umweg über das /tmp Verzeichnis ist nötig, weil die Quotas nicht gerade großzügig bemessen sind. Hat man eh eine aktuelle Version der diversen Plugins (Flash) auf dem Rechner oder Sicherheitsbedenken sollte man beim Aufruf von Chromium das –allow-outdated-plugins entfernen.

    Update: Habe das Skript nochmal deutlich aufgeräumt und nun ist es nicht nur kürzer (27 statt 42 Zeilen), sondern auch deutlich schneller. Statt die Dateien erst zu entpacken und dann ohne die Sprachpakete zu verschieben entpacke nun direkt in den Zielordner ohne die überflüssigen Dateien mitzuentpacken. Dazu habe ich ein bisschen mit Regulären Ausdrücken rumexpiremntieren müssen. Ich konnte mich bisher mit denen noch nicht anfreunden und so entwischt mir auch jetzt immer noch eine Datei. Nicht nur “de.pak” wird entpackt sondern auch “da.pak”. Hat jemand Verbesserungsvorschläge?

    Zum Blog: www.lioman.de

    Manchmal ist es praktisch komplette Webseiten auf den eigenen Rechner zu kopieren. Sei es um eine von der Zensur bedrohte Website zu ‘sichern’ oder aber um ein persönliches Backup zu haben, welches beispielsweise nützlich sein kann, wenn man sich in einer Hausarbeit auf eine Website bezieht, und verhindern möchte, dass die angegebenen Inhalte irgendwann nicht mehr zugänglich sind.

    Für solche Zwecke bietet sich das Programm ‘wget‘ an. Beispielsweise kann eine Webseite mit folgenden Befehl (im Terminal) heruntergeladen werden:

    wget -r -k -E http://www.beispiel.de

    Die Option -r bezweckt, dass alle Seiten rekursiv (d.h. auch alle Unterseiten) gespeichert werden (mit -l xx – wobei xx für eine beliebige Zahl steht, kann die Zahl der Ebenen, welche heruntergeladen werden sollen, vorgegeben werden). -k konvertiert die Links der Seite in interne, so dass die Seite komplett offline funktioniert und die Option -E sorgt dafür, dass alle Dateien in .htlm-Dateien umgewandelt werden.

    Die Website wird automatisch im Home / persönlichen Verzeichnis gespeichert, um ein anderes Verzeichnis vorzugeben, kann die Option -P [Pfad-zum-Verzeichnis] genutzt werden.

    Um Missverständnissen vorzubeugen, man erhält mit dieser Methode keine ‘richtigen’ Backups, zumindest dann wenn es sich nicht um reine HTML Seiten handelt und diese sind heutzutage eher selten geworden. Es handelt eher um ‘Momentaufnahmen’ ohne jegliche ‘dynamische’ Funktionalität.


    Wenn man versucht die Seite http://openclipart.org/ aufzurufen, bietet sich in den letzten Tagen folgendes Bild:

    Laut der Oregon State University Open Source Lab Belegschaft, wird also schon seit Tagen versucht Backendprobleme in den Griff zu bekommen. Leider bis jetzt noch nicht erfolgreich. Wer die Clip Arts benötigt und nicht warten möchte, der kann sie unter http://download.openclipart.org/downloads/ herunterladen. Die Clip Arts selbst sind dabei Public Domain.

    Weitere Informationen gibt es unter:
    http://de.wikipedia.org/wiki/OpenClipart
    http://en.wikipedia.org/wiki/Open_Clip_Art_Library

    17. November 2011

    Die Portable Verschlüsselungssoftware gpg4usb (siehe auch “gpg4usb – Verschlüsselung für Unterwegs“) ist in Version 0.3.1 erschienen.

    Mit der neuen Version ist es unter Anderem möglich Daten zu signieren und Signaturen zu verifizieren. Außerdem ist es jetzt möglich öffentliche Schlüssel von Keyservern zu importieren.

    Alle Neuerungen und das Programm selbst findet man unter gpg4usb.cpunk.de.


    Ist es schon so weit, kommt Ubuntu auf dem Handy ?

    Nein, leider ist es noch nicht so weit. Aber es entstehen die ersten Mock-up zum Thema Ubuntu auf dem Handy, Tablet und weiteren Computer.

    Ich habe mir da auch einmal einige Gedanken dazu gemacht und bin bei dem Design gelandet. Die Frage stellt sich natürlich, wie kann ein zukünftiges Design von Ubuntu aussehen ? Ian Santopietro hat sich dazu einmal einige Designs ausgedacht. Je nach Grösse des Gerätes könnte man ein anderes Design walten lassen. Grundlegend wird auf dem Unity aufgebaut.

    Das Konzept von Unity wird auf den kleinen Bildschirmen so eingesetzt, dass es sich zum normalen Unity nicht unterscheidet. Beim Tablet stehen mehr Platz zur Verfügung.

    Fazit

    Sieht spannend aus das Mock-up für das Ubuntu Tablet und das Ubuntu Phone. Ich bin einmal gespannt was sich dann daraus ergeben wird

     

    PDF-Datei dieses Artikels erzeugen

    Ähnliche Artikel

    • Keine ähnlichen Artikel vorhanden

    Open-Source-Projekte mit dem Software-Center finanzieren

    Seit einigen Monaten kann man mit dem "Software-Center relativ einfach eigene Programme unter Ubuntu zum Kauf anbieten. Warum soll das nicht auch dazu dienen die Finanzierung von Open-Source-Projekten zu verbessern?

    An meinem Lieblingsbeispiel Gimp möchte ich dies mal demonstrieren, vorher möchte ich aber noch eine Grundannahme machen: Es widerspricht nicht dem Open-Source-Gedanken, Software zu verkaufen, wenn man gleichzeitig den Programm-Code veröffentlicht. 

    Wie könnte das aussehen?

    Für Gimp gibt es z.B. Plugins, die nicht über die Paketquellen installierbar sind und deren Pflege den normalen Grafiker nerven bzw. überfordern.

    Warum nicht bestimmte Plugin-Packs im Software-Center zu einem fairen Preis anbieten? Oder ich könnte mir einen Plugin-Pack vorstellen, der eine Vorauswahl trifft und mir spezielle Plugins/Funktionen für die Nachbearbeitung von Digital-Fotos bereitstellt – Funktionen, die von Shotwell evtl. nicht abgedeckt werden.

    Hier könnte das Gimp-Team ansetzen; denn wer besitzt schon mehr Kompetenz bzgl. Gimp als das Gimp-Team selbst. Was für Gimp gilt, gilt natürlich auch für viele andere Anwendungen wie OpenShot, Ardour, Open-Office u.v.a. und eine Vielzahl an Angebotsmöglichkeiten.

    Wo liegt der Mehrwert für den Kunden?

    Die meisten Anweder sind genervt oder schlicht überfordert mit der Installation von Plugins, PPAs oder Kompilierung von Quellcode – trotzdem verwenden sie natürlich gerne die besten Plugin und die neusten Versionen ihrer Software. Es wäre vermessen anzunehmen, dass Anwender sich dieses Wissen erarbeiten müssen oder halt 6 – 24 Monate auf die nächste Aktualisierung von Ubuntu warten sollen.

    Speziell für die LTS-Versionen von Ubuntu stellt das Software-Center so ganz neue Möglichkeiten für Anwender und Programmierer bereit, eine mangelnde Aktualisierung durch Canonical zu umgehen.

    Warum ein funktionierendes kommerzielles Ökosystem wichtig ist.

    Speziell kleine Projekte haben immer wieder zu kämpfen, sei es bei neuer Hardware oder der Server-Miete – von der Bezahlung der Team-Mitglieder ganz zu schweigen. Hinzu kommt, dass die meisten Open-Source-Projekte werden von Einzelkämpfern programmiert und haben einfach nicht die Men-Power um sie (schneller) weiterzuentwickeln.

    Für alle die sich für Geschäftsideen und Geschäftskonzepte habe ich hier zwei Artikel, die als Einstieg dienen:

    Wie steht ihr dazu? Sollten Open-Source-Projekte versuchen, über das Software-Center Geld zu verdienen?

    The post Open-Source-Projekte mit dem Software-Center finanzieren appeared first on Rockiger.

    Unter Chromium und Firefox nutze ich gerne die Erweiterung iReader. Damit lassen sich Texte in den Vordergrund stellen, ohne dass das Layout den Lesefluss stört. Aus dem Hause Evernote gibt es nun eine neue Alternative dazu: Clearly.

    Ich habe mir die Erweiterung mal angesehen und finde sie eigentlich recht gut. Clearly bringt 3 eigene Designs mit, aber die Hintergrund- und Schriftfarben lassen sich genauso frei Anpassen wie die Schriftart und Größe. Da iReader bei manchen Websites nicht vernünftig funktioniert werde ich mir Clearly mal etwas genauer anschauen. Die Erweiterung gibt es derzeit allerdings (noch?) nicht für andere Browser. Aber in den Kommentaren bei Evernote wurde schon danach gefragt. Geantwortet hat darauf leider noch niemand.

    Clearly kann über den Chrome Web Store installiert werden. Für Leute, die mehr auf bewegte Bilder stehen, gibt es noch ein kurzes Video über Clearly.

    Bei MuseScore handelt es sich um eine freie Notensatzsoftware, welche in diesem Blog auch schon öfter erwähnt wurde. Die Software selbst steht dabei unter GPL und läuft unter Linux, Windows und Mac OS. Die offizielle Seite ist dabei unter http://www.musescore.org zu finden.

    Neben dieser gibt es seit einiger Zeit die Seite http://musescore.com für die MuseScore Community. Dort können eigene Partituren hochgeladen werden und mit anderen getauscht werden. Mittels MuseScore Connect können die Partituren auch direkt in MuseScore geöffnet werden. Daneben gibt es auf der Seite die passende App für iOS Geräte. An der Androidversion dieser App wird allerdings im Moment noch gearbeitet. Alles in allem ein sehr schönes Angebot, vor allem wenn man auf der Suche nach passenden Note für sein Instrument ist.

    Weitere Informationen gibt es unter:
    http://wiki.ubuntuusers.de/MuseScore
    http://de.wikipedia.org/wiki/MuseScore

    Open-Source-Projekte mit dem Software-Center finanzieren

    Seit einigen Monaten kann man mit dem "Software-Center relativ einfach eigene Programme unter Ubuntu zum Kauf anbieten. Warum soll das nicht auch dazu dienen die Finanzierung von Open-Source-Projekten zu verbessern?

    An meinem Lieblingsbeispiel Gimp möchte ich dies mal demonstrieren, vorher möchte ich aber noch eine Grundannahme machen: Es widerspricht nicht dem Open-Source-Gedanken, Software zu verkaufen, wenn man gleichzeitig den Programm-Code veröffentlicht. 

    Wie könnte das aussehen?

    Für Gimp gibt es z.B. Plugins, die nicht über die Paketquellen installierbar sind und deren Pflege den normalen Grafiker nerven bzw. überfordern.

    Warum nicht bestimmte Plugin-Packs im Software-Center zu einem fairen Preis anbieten? Oder ich könnte mir einen Plugin-Pack vorstellen, der eine Vorauswahl trifft und mir spezielle Plugins/Funktionen für die Nachbearbeitung von Digital-Fotos bereitstellt - Funktionen, die von Shotwell evtl. nicht abgedeckt werden.

    Hier könnte das Gimp-Team ansetzen; denn wer besitzt schon mehr Kompetenz bzgl. Gimp als das Gimp-Team selbst. Was für Gimp gilt, gilt natürlich auch für viele andere Anwendungen wie OpenShot, Ardour, Open-Office u.v.a. und eine Vielzahl an Angebotsmöglichkeiten.

    Wo liegt der Mehrwert für den Kunden?

    Die meisten Anweder sind genervt oder schlicht überfordert mit der Installation von Plugins, PPAs oder Kompilierung von Quellcode - trotzdem verwenden sie natürlich gerne die besten Plugin und die neusten Versionen ihrer Software. Es wäre vermessen anzunehmen, dass Anwender sich dieses Wissen erarbeiten müssen oder halt 6 - 24 Monate auf die nächste Aktualisierung von Ubuntu warten sollen.

    Speziell für die LTS-Versionen von Ubuntu stellt das Software-Center so ganz neue Möglichkeiten für Anwender und Programmierer bereit, eine mangelnde Aktualisierung durch Canonical zu umgehen.

    Warum ein funktionierendes kommerzielles Ökosystem wichtig ist.

    Speziell kleine Projekte haben immer wieder zu kämpfen, sei es bei neuer Hardware oder der Server-Miete - von der Bezahlung der Team-Mitglieder ganz zu schweigen. Hinzu kommt, dass die meisten Open-Source-Projekte werden von Einzelkämpfern programmiert und haben einfach nicht die Men-Power um sie (schneller) weiterzuentwickeln.

    Für alle die sich für Geschäftsideen und Geschäftskonzepte habe ich hier zwei Artikel, die als Einstieg dienen:

    Wie steht ihr dazu? Sollten Open-Source-Projekte versuchen, über das Software-Center Geld zu verdienen?

      In den 1980er Jahren waren die sogenannten Stereogramme sehr beliebt. Es handelt sich dabei um eine Art Muster, das man auf eine gewisse Art ansehen muss, um einen dreidimesionalen Effekt zu sehen. In der Wikipedia wird dies so umschrieben:

      Um den korrekten räumlichen Eindruck zu erhalten, muss der Blick des Betrachters auf das Bild ins Unendliche gerichtet werden. Schielen ergibt einen invertierten 3-D Eindruck: eigentlich im Vordergrund befindliche Bildelemente erscheinen im Hintergrund und umgekehrt. Nach einiger Eingewöhnungszeit werden dann die eingebetteten Konturen sichtbar. #

      Ich möchte mich hier aber gar nicht um die Geschichte oder die richtige „Sichtweise“ der Bilder kümmern, sondern lediglich zeigen, wie man solche beeindruckenden Bilder erstellt.

      Einfaches Stereogramm mit Zufallspunkten

      Herz in Graustufen

      Zunächst muss man ein Graustufenbild haben, in dem die Graustufen die unterschiedlichen Ebenen des Bildes darstellen sollen. So ein Bild zu erstellen ist bei einfachen Motiven gar nicht mal kompliziert und kann in GIMP gemacht werden. So ein Bild kann z.B. wir rechts dargestellt aussehen.

      Bei komplizierteren Darstellungen, kann man schon überlegen, ob man nicht Blender bemühen möchte. Leider habe ich im Internet nur eine Anleitung für Blender 2.3 gefunden. Für die aktuelle Version von Blender ist mir noch nichts über den Weg gelaufen. (wer es besser weiß, bitte melden!)

      Die eigentliche Arbeit erledigt eine fast verschollene Perle des Terminals: Stereograph. Dieses Programm ist in den Ubuntu Paketquellen vorhanden und kann über die Paketverwaltung bezogen werden.

      Man hat hier nun einige Optionen, mit denen man das Stereogramm perfektionieren kann. Am einfachsten macht man ein Stereogramm mit Zufallspunkten, dann muss man kein Muster anlegen.

      stereograph -b input.png -w 100 -o output.png

      Die Option -w gibt dabei die Breite für das Muster an. Es wird empfohlen, bei Bildern bis 800Pixel Breite 100 zu nehmen, für Bilder mit größerer Auflösung 110 bis 120. Die Ausgabe sieht dann im Herzbeispiel so aus:

      Das Herz als Stereogramm. Im richtigen Blickwinkel betrachtet hat es einen dreidimensionalen Effekt.

      Muster selbst erstellen

      Gimp: Bereiche mit Muster füllen

      Aber um ehrlich zu sein: graue Pixel alleine machen nicht glücklich. Ein bisschen Farbe bekommt man in das Projekt, wenn man Muster anlegt und verwendet. Das Projekt bietet schon einige Muster an, die man sich hier bei Sourceforge besorgen kann.

      Besonders schön wird es jedoch, wenn man ein persönliches Muster verwendet. Um ehrlich zu sein, ich weiß nicht genau welche Anforderungen an das Muster gestellt werden, aber ich habe mir einfach mal eines mit GIMP erstellt, und es hat geklappt!

      Öffnet dazu Gimp, erstellt ein neues Dokument in einer Größer eurer Wahl. Über das Füllen-Werkzeug (Umschalt-B) lässt sich eines von voreingestellten Gimp-Mustern wählen, oder man ist ganz kreativ und erstellt ein komplett eigenes.

      Mit dem folgendem Befehl kann man aus dem Graustufenbild ein tolles Stereogramm machen, indem man sein eigenes Muster verwendet:

      stereograph -b input.png -t muster.png -o output.png

      Damit erhält man dann sein finales Bild:

      Was ist auf diesem Bild zu sehen?

      Und jetzt Hände hoch: Wer erkennt hier das Motiv? Wer es als erstes in die Kommentare schreibt… hat es als erstes in die Kommentare geschrieben…
      (Wer nicht mitraten will/kann, sieht hier die Lösung)

      16. November 2011

      Acht Tage nach der ersten Vorabversion stellt Torvalds Linux 3.2-rc2 online und nähert sich damit wieder einem normalen Veröffentlichungrhythmus an.

      Das Volumen der Änderungen ist ein Stückchen kleiner als der beim -rc2 der Vorgängerversion (also 3.1-rc2), obwohl laut Torvalds besonders viele Neuerungen aus linux-next übernommen wurden. Dazu fand der Patch diesmal gleich den Weg in den richtigen Pfad; 3.2-rc1 wurde von Torvalds fälschlicherweise direkt in den 3.x-Zweig geladen anstelle des sonst üblichen 3.x/testing-Pfades.

      Änderungen gab es vor allem bei den Architekturen, insbesondere für die 6800-Prozessorfamilie m68k und ARM. Der Nouveau-Treiber wurde mit Fehlerkorrekturen bedacht, ebenso wie das Dateisystem btrfs. Die Dokumentation für DRM wurde überarbeitet und das Kernel-Test-Skript ktest.pl bekam ein paar neue Funktionen und Verbesserungen.

      Quelle: Linux Kernel Mailing List

       

      Heute möchte ich Euch zeigen, wie man mit Hilfe des Linux-Tools “rsync” Ordner bzw. Festplatten, lokal oder per SSH synchronisiert. Hierbei gilt es zu beachten, dass dies keine Sicherung ersetzt, da defekte oder gelöschte Dateien repliziert werden.
       
      Für dieses HowTo habe ich einen Beispielordner “Tortuga” mit sieben Bilder angelegt.



      Mit dem Befehl   rsync -arvuP --delete Tortuga/ Port-Royal wird der Ordner “Port-Royal” erstellt und der Inhalt des Ordners “Tortuga” in diesen synchronisiert.
       

      Der Befehl setzt sich wie folgt zusammen:

      -a (archive) ist eine Zusammenfassung der Parameter Dgloprt
        -D Inhalte zu Gerätedateien werden mit kopiert
        -g Gruppenrechte werden übertragen
        -l Links werden mit kopiert
        -o überträgt auch die Zugriffsrechte
        -p behält die Zugriffsrechte
        -r Synchronisiert auch alle Unterverzeichnisse mit
        -t der Zeitstempel der Datei wird mit übertragen
      -r (recursive)    
       
       
      Synchronisiert auch alle Unterverzeichnisse mit (ist mit Absicht zusätzlich zu “archive” nochmals gesetzt, da er diese in der Zusammenfassung ab und an ignoriert)
      -v (verbose) Ausgabe des aktuellen Bearbeitungsstands
      -u (update) vorhandene Dateien werden nur aktualisiert wenn sie neueren Datums sind
      -P ist eine Zusammenfassung der Optionen –partial und –progress
      -n (test) durchführen eines Testlaufs
      -e (extern) Auswahl der Remote Shell
        –partial Setzt die Synchronisation nach Abbruch fort
        –progress Zeigt den Fortschritt der Synchronisation an
      –delete löscht Dateien im Zielverzeichnis die in der Quelle nicht mehr vorhanden sind

       
      Wie man in folgendem Screenshot sieht sind die Verzeichnisse jetzt synchron.
       

      Nun habe ich die beiden Bilddateien “ship1.jpg” und “ship4.jpg” im Ordner entfernt und die Synchronisation nochmals angestoßen. “rsync” löscht die Dateien im Zielverzeichnis “Port-Royal”.
       

      Bearbeitet man die Dateien, “ship2.jpg” und “ship5.jpg” sind jetzt größer, werden diese bei einem erneuten Durchlauf ersetzt.
       

      Fügt man den Parameter “-n” hinzu wird ein Testlauf (Dry Run) angestoßen, hierbei werden jedoch keine Dateien verändert.
       

       
       
      Möchte man eine Synchronisation zwischen unterschiedlichen Rechnern per “SSH” ausführen, realisiert man als erstes einen SSH-Zugang via Public Key.
       
      Anschließend kann die Synchronisation mit folgendem Befehl durchgeführt werden:
        rsync -arvu --delete -e ssh /Tortuga user@server.de:/home/user/Port-Royal
       
      Es macht natürlich keinen Sinn, die Ausführung jedes mal per Hand anzustoßen. Am besten packt man das Ganze in ein Skript und führt es via “Cronjob” regelmäßig aus. Eine Anleitung zum einrichten eines “Cronjobs” findet Ihr unter “Skript via Cronjob ausführen”
       
       
      Anleitung wurde mit Ubuntu 10.04 erstellt
       
      Fazit: Mit “rsync” steht einem eine einfache Möglichkeit zur Verfügung Daten synchron zu halten. Wie schon oben erwähnt, ersetzt diese Möglichkeit jedoch keine Sicherung.
       
       
      Klar soweit?
      Euer RSB

      Nachdem ich auf meinem Netbook Lubuntu aufgesetzt hatte und dabei das Dateisystem btrfs nutze, gab grub2 beim Start folgende Fehlermeldung von sich:

      sparse file not allowed

      Abhilfe schafft es wenn man in der Datei /etc/grub.d/00_header die Zeile:

      if [ -n "\${have_grubenv}" ]; then if [ -z "\${boot_once}" ]; then save_env recordfail; fi; fi

      auskommentiert. Das ganze sieht dann so aus:

      function recordfail {
        set recordfail=1
        #if [ -n "\${have_grubenv}" ]; then if [ -z "\${boot_once}" ]; then save_env recordfail; fi; fi
      }

      Anschließend muss noch

      update-grub

      ausgeführt werden. Danach ist der Fehler verschwunden.

      Weitere Informationen gibt es unter:
      http://mirkolofio.wordpress.com/2011/05/20/error-sparse-file-not-allowed/
      https://bugs.launchpad.net/ubuntu/+source/grub2/+bug/464743