ubuntuusers.de

22. Oktober 2011

Heute habe ich meinen privaten Laptop (Lenovo R61) auf Oneiric gehoben. Nachdem eine Neuinstallation auf dem anderen Laptop problemlos war lief es diesmal nicht ganz rund.

In diesem Fall sollte eine bestehende Natty-Installation via Dist-Upgrade auf Oneiric aktualisiert werde. Der Weg der Wahl war die Kommandozeile (wenn jetzt jemand fragt: "Warum Kommandozeile und nicht Aktualisierungsverwaltung?" lautet die Antwort "Weil ich a) gleichzeitig was für's Wiki von ubuntuusers.de testen wollte und b) theoretisch am Ende des gleiche raus kommt".)

Nun gut, alles vorbereitet und dann auf der Kommandozeile sudo do-release-upgrade aufgerufen - und los geht's. Aufgrund einer schmalbrüstigen DSL-Anbindung (dafür liegt das Dorf wo ich wohne aber landschaftlich sehr schön ;-) ) dauert der Download von rund 870 MB für das Upgrade ca. 2,5 Stunden. Nachdem dieser fertig ist wird alles entpackt mit der eigentlichen Installation der Pakete begonnen. Da das bekanntlich alles automatisch läuft sitzt ich auch nicht die ganze Zeit vor dem Rechner.

Irgendwann will ich aber mal den Status prüfen - der der Bildschirm bleibt dunkel. Der Computer macht zwar irgendwas, zu erkennen an der sporadisch blinkenden HD-Lampe und dem ebenfalls blinkenden WLAN-Symbol, aber regieren tut er nicht. Auch der Wechsel auf einen anderen Terminal ist nicht möglich. Nach ein wenig hin und her drücke ich schließlich den Power-Knopf. Da die bestehende Installation an sich nichts wichtiges enthält und alle Daten auf einer separaten Home-Partition sind, welche zusätzlich gebackupt ist, habe ich da auch kein größeres Problem mit.

Der Neustart funktioniert sogar, also wurde wohl bisher weder das GRUB2 Bootmenü neu geschrieben noch der neue Kernel installiert. Der Bootvorgang ist aber extrem langsam, was wahrscheinlich dem Mix aus alten und neuen Libs / Programmen geschuldet ist und bis zum Login-Bildschirm kommt ich auch nicht. Also muss der nächste Neustart her.

Diesmal wähle ich den "Recovery Modus", der auch ohne Probleme fix bis zum Shell-Prompt bootet. Die das Upgrade "nur noch" zu Ende geführt werden muss gebe ich dpkg --configure -a und es rennt weiter. Diesmal auch ohne Probleme und bis zum Schluss. Der folgende Neustart läuft durch und bringt mich zum neuen Login-Manager. Login ist kein Problem, Unity startet, alles da, alles drin. Glück gehabt? Vielleicht.

Woran es jetzt letztendlich lag, dass der erste Upgrade-Vorgang hängen geblieben ist - keine Ahnung. Ich vermute, dass entweder ein Neustart des X-Servers nicht funktioniert hat oder das Ausblenden des Bildschirms nach 5 min zwecks Energieeinsparung Probleme macht. Sicherheitshalber werde ich das wohl beim nächsten Mal zumindest für das Dist-Upgrade deaktivieren, so dass der Bildschirm immer da ist.

Noch eine kleine Anmerkung zum Upgrade: Zumindest bei mir wurden der alten Login-Manger gdm nicht automatisch entfernt. Ein apt-get purge gdm hat das nachträglich erledigt und keinerlei Probleme verursacht.

Seit einiger Zeit funktionierte das Öffnen von Links aus Thunderbird nicht mehr. In der Datei prefs.js (Profilordner) war alles richtig eingetragen. Mit ein bisschen Suche wurde ich dann noch in der Datei mimeTypes.rdf (Profilordner) mehrfach fündig. Dort die Aufruf-Pfade für Firefox korrigiert und schon werden die Links wieder brav geöffnet.

Den Profilordner findet man bei Neuinstallationen unter /home/(benutzername)/.thunderbird/. Dieser besteht dann aus einem kryptischen Ordnernamen. In diesem Profilordner befinden sich dann die beiden Dateien prefs.js und mimeTypes.rdf.

Seit einiger Zeit funktionierte das Öffnen von Links aus Thunderbird nicht mehr. In der Datei prefs.js (Profilordner) war alles richtig eingetragen. Mit ein bisschen Suche wurde ich dann noch in der Datei mimeTypes.rdf (Profilordner) mehrfach fündig. Dort die Aufruf-Pfade für Firefox korrigiert und schon werden die Links wieder brav geöffnet.

Den Profilordner findet man bei Neuinstallationen unter /home/(benutzername)/.thunderbird/. Dieser besteht dann aus einem kryptischen Ordnernamen. In diesem Profilordner befinden sich dann die beiden Dateien prefs.js und mimeTypes.rdf.

Seit einiger Zeit funktionierte das Öffnen von Links aus Thunderbird nicht mehr. In der Datei prefs.js (Profilordner) war alles richtig eingetragen. Mit ein bisschen Suche wurde ich dann noch in der Datei mimeTypes.rdf (Profilordner) mehrfach fündig. Dort die Aufruf-Pfade für Firefox korrigiert und schon werden die Links wieder brav geöffnet.

Den Profilordner findet man bei Neuinstallationen unter /home/(benutzername)/.thunderbird/. Dieser besteht dann aus einem kryptischen Ordnernamen. In diesem Profilordner befinden sich dann die beiden Dateien prefs.js und mimeTypes.rdf.

Mit etwas Verspätung (hauptsächlich dem Oneiric-Release geschuldet) bringe ich nun hiermit den letzten Teil meiner SparkleShare-Serie auf den Weg:

Zusätzlich zum eigentlichen Thema möchte ich am Ende des Artikels außerdem mein Fazit zu SparkleShare und der Serie ziehen…

Wie ihr in den vergangenen Artikeln ja schon erfahren habt, synchronisiert SparkleShare die Dateien nicht auf einen speziellen SparkleShare-Server, sondern auf ein gewöhnliches GIT-Repository.

Demnach kann man für den Browser-Zugriff auf das Repository natürlich auch jedes beliebige Produkt verwenden, das diese Funktionalität für GIT-Repositories bietet (z.B. ein in Perl entwickeltes GitWeb oder ein unter PHP lauffähiges git-php). In diesem Artikel möchte ich allerdings die Basis-Installation von ViewGit beschreiben.

ViewGit installieren und konfigurieren

Wie auf der Webseite des ViewGit-Projektes zu sehen, wird für den Einsatz der Software lediglich PHP5, Apache (mit dem Modul mod_rewrite) und natürlich GIT verausgesetzt.

Die Installation ist dementsprechend einfach und schnell erledigt:

Zunächst der Download: von der Projektseite wird man über den Download-Link auf die Sourceforge-Seite des Projektes verwiesen. Dort sucht man sich dann die aktuellste Version und lädt das .tar.gz-Paket, am besten direkt auf den Server, herunter.

Entpackt man nun dieses Paket ins httpdocs-Verzeichnis des Apache-Servers erhält man ein Unterverzeichnis viewgit.

Dort hinein wechselt man nun und führt erst einmal die folgenden grundlegenden Befehle aus:

cp doc/example-htaccess .htaccess
cp inc/example-localconfig.php inc/localconfig.php

Der erste Befehl erstellt die Datei .htaccess aus einer Beispieldatei. Diese enthält ein paar Angaben bzgl. PHP und dem mod_rewrite. Der zweite Befehl kopiert eine Beispiel-Konfigurationsdatei auf den Namen der tatsächlich verwendeten Konfigurationsdatei um. Diese Konfigurationsdatei (inc/localconfig.php) muss nun noch an die Gegebenheiten des eigenen Servers angepasst werden.

Öffnet nun also die Datei inc/localconfig.php im Editor. Ihr findet darin folgenden Block:

$conf['projects'] = array(
    'foo' => array('repo' => '/home/user/projects/foo/.git'),
    'bar' => array(
        'repo' => '/home/user/projects/foo/.git',
        'description' => 'Optional overridden description, otherwise it is taken from .git/description'
    ),
);

Ersetzt diesen Block durch einen solchen Block:

$conf['projects'] = array(
    'meinrep' => array('repo' => '/var/sparkleshare/meinrep.git'),
);

Die Repository-Übersicht in ViewGit

Das definiert ein Repository namens meinrep, dessen Repository-Verzeichnis unter /var/sparkleshare/meinrep.git zu finden ist (den Pfad habe ich aus meinem Artikel zur Server-Konfiguration übernommen; ihr müsst ihn natürlich an eure Konfiguration anpassen).

Das war es schon! Nun kann man das ViewGit-Interface im Browser aufrufen und in eurem Repository browsen.

Ganz wichtig: denkt daran, das Interface bei Bedarf mit einem Kennwort zu versehen (Stichwort: htaccess/htpasswd) , damit nicht jeder auf eure Dateien zugreifen kann!

Der Haken mit der Verschlüsselung…

Einen Haken gibt es da (zumindest habe ich dafür bisher keine Lösung gefunden): wer sein Repository verschlüsselt hat, der kann ViewGit leider nur zum Browsen im Verzeichnisbaum benutzen.

Tree-Anzeige des Repository-Inhalts

Denn wenn man per ViewGit eine Datei aus dem verschlüsselten Repository herunterlädt (im rechts gezeigten Bild würde man dazu z.B. auf den blob-Link in der Downloadspalte klicken), dann wird diese nicht automatisch entschlüsselt. Somit müsste man jederzeit seinen Schlüssel dabei haben – inkl. GnuPG zur Entschlüsselung – und die Datei nach dem Herunterladen manuell entschlüsseln.

Auch kann man nicht einfach über das Webinterface in eine verschlüsselte Textdatei sehen. Per Klick auf den Dateinamen bekommt man natürlich auch nur den Inhalt in verschlüsselter Form zu sehen.

Man muss sich also leider entscheiden. Zwischen verschlüsseltem Repository und “wenig Webinterface” einerseits und unverschlüsseltem Repository und “viel Webinterface”.

Fazit zu Sparkleshare

Nachdem ich mich nun im Zuge meiner Blog-Artikel eine Zeit lang mit SparkleShare beschäftigt habe, möchte ich nun zum Schluss der Serie ein kleines Fazit dazu ziehen – auch in Bezug auf die geposteten Leser-Kommentare:

  • Dass man einerseits eine automatische Datei-Synchronisation bekommt und andererseits alles selbst unter Kontrolle hat finde ich nach wie vor sehr reizvoll.
  • Was mir am “Prinzip SparkleShare” extrem gut gefällt ist, dass die Server-Seite in kürzester Zeit und mit minimalem Aufwand eingerichtet werden kann. Auch sind die Anforderungen an den Server angenehm überschaubar.
  • Ganz klar für SparkleShare spricht die Tatsache, dass man seine Daten eben nicht irgendwo hin aus der Hand gibt, sondern auf dem eigenen Server speichert. Auch die offene Möglichkeit der Verschlüsselung ist nett.
  • Wie “dAnjou” richtigerweise zu meinem ersten Artikel geschrieben hat, ist SparkleShare für große, sich oft ändernde Datenmengen eher ungeeignet. Der Grund dafür ist, dass GIT ein Versionskontrollsystem ist, das jede Änderung einer Datei protokolliert. Somit wird mit jeder Dateiänderung immer mehr Speicherplatz “verbraten”, obwohl die Datei selbst vielleicht gar nicht größer geworden ist.
  • Eine Besserung wäre dann in Sicht, wenn sich der SparkleShare-Client in Zukunft z.B. auch mit einem WebDav-Server unterhalten könnte. Als Alternative werde ich noch versuchen, automatisch alte Versionen aus dem Repository entfernen zu lassen. Sobald ich hierzu etwas “handfestes” haben sollte, werde ich euch das natürlich nicht vorenthalten und einen Artikel dazu schreiben.
  • SparkleShare scheint also seine Stärken in eher kleineren Dateien zu haben – ich denke da an Konfigurationsdateien oder den eigenen Shellscripts, Dokumente o.ä. In diesem Fall ist die Verwendung von GIT ggfs. sogar von Vorteil. Denn, wie gesagt, ist jede Version rekonstruierbar.
  • “Freundhansen” hatte Bedenken geäußert, dass SparkleShare vielleicht nur “eine weitere OpenSource Krücke” sein könnte. Das wird man natürlich abwarten müssen. Meine Hoffnung ist natürlich, dass sich noch einiges in der Entwicklung tun wird. Aber: who knows?! Trotzdem kann ich dem Programm in der jetzigen Version auch schon vieles abgewinnen – warum sollte man es also nicht probieren?
  • Auch wurden ein paar Alternativen von den Kommentatoren genannt, z.B. rsync (“Platz da, hier komm ich”) oder OwnCloud (“Poapfel”). Beides sicher auch wirklich gute Alternativen. Wobei mir bei OwnCloud im Vergleich zu SparkleShare die automatische Synchronisation fehlt.
  • “Georg” hat schließlich zum vorigen Artikel einen interessanten Kommentar beigetragen. Dabei hat er auf diesen Blog-Beitrag verwiesen, in dem eine andere Art und Weise der Verschlüsselung beschrieben ist. Das sieht mir sehr interessant aus – ich werde mir mal die Zeit nehmen müssen, um es mal selbst auszuprobieren.

Letztendlich komme ich auf positives Endergebnis und für mich zu dem Schluss, dass ich SparkleShare vermutlich für die bisher in Ubuntu One synchronisierten Dateien (eher geringes Volumen) verwenden werde – in der Hoffnung, dass das Produkt fleißig weiterentwickelt wird (übrigens ist in den letzten Tagen ein Android-Client veröffentlicht worden)…

pssst, weitersagen!

21. Oktober 2011

Ich bin ein Fan von rahmenlosen Konsolenfenstern. Deshalb möchte ich Euch zeigen wie man Rahmen, Scrollbalken und Menüleiste abschaltet und Ihr das Fenster anschließend auch noch bedienen könnt.

Für die Konfiguration benötigen wir den “CompizConfig Einstellungs-Manager”. Dieser lässt sich wie folgt installieren:
   sudo apt-get install compizconfig-settings-manager
 
Über “System / Einstellungen / CompizConfig Einstellungs-Manager” lässt sich das Tool öffnen. In der Kategorie “Effekte” befindet sich der Punkt “Fensterdekoration”. Hier ersetzen wir unter “Dekoration für Fenster” das “any” mit “(any) & !(class=Gnome-terminal)”
 

Anschließend ist der Rahmen verschwunden. Als nächsten Punkt deaktivieren wir den Scrollbalken unter “Bearbeiten / Profileinstellungen / Rollbalken” und setzen den Punkt “Rollbalken ist:” von “auf der rechten Seite” auf “Deaktiviert”
 

Bevor wir nun die Menüleiste deaktivieren, müssen wir eine Tastenkombination festlegen um die später wieder aufrufen zu können. Dieses geht unter “Bearbeiten / Tastenkombinationen … /” in der Aktionskategorie “Ansicht / Menüleiste anzeigen bzw verbergen”. Die Menüleiste blendet man nun mit der Tastenkombination oder “Ansicht / Menüleiste” aus.
 

 
Abschließend noch ein paar Tipps, wie Ihr das Fenster nun mit der Maus bedienen könnt:
alt + mittlere Maustaste = Größe des Fensters ändern
alt + linke Maustaste = Fenster verschieben
alt + rechte Maustaste = Verschiedene Funktionen, unter anderem minimieren, maximieren und schließen
rechte Maustaste + Menüleiste anzeigen = ebenfalls eine Möglichkeit die Menüleiste wieder einzublenden
 
 
Anleitung wurde mit Ubuntu 10.04 unter Gnome 2.30.2 erstellt
 
Fazit: Und so sieht das Konsolenfenster anschließend aus, ob mans brauch oder nicht, ich finds einfach nur klasse.
 

 
Klar soweit?
Euer RSB

Das nächste Ubuntu Release wird nicht wie bisher nur 3 Jahre Support für die Desktop Version bieten, sondern 5 Jahre.
Dies meldete soeben Canonical im eigenem Blog.

Durch die Anhebung sollen vor allem Unternehmen profitieren, die lange Support Phasen meist voraussetzen. Aber auch Privatuser die ein stabiles System zum Arbeiten brauchen und nicht die neusten Updates brauchen werden damit glücklich werden.
Es gibt ja immer noch eine Menge Leute, die mit Windows XP unterwegs sind, dass nächste Woche sein 10 jähriges Release feiert.

Der Support Zeitraum für die Server Version bleibt weiterhin bei 5 Jahren.



Ubuntu Precise Pangolin erscheint im April 2012 und wird das mittlerweile vierte LTS Release von Canonical.

Bleibt noch abzuwarten, ob Ubuntu 12.04 ein würdiges LTS Release wird. Ubuntu 11.10 war meiner Meinung nach schon mal ein Schritt in die richtige Richtung.

Diese Nachricht haben sicher einige von euch schon vernommen. Das neue Android 4.0 ist geboren und wird unsere Smart-Phone und Tablet-Welt wieder aufmischen. Ich habe mich auch damit befasst und meinen alt gedienten Android Emulator mit Ubuntu ausgegraben. Ich habe das SDK von Google neu installiert und den Emulator einmal angeworfen.

Das SDK wurde umgebaut und als erste Übersicht hat man jetzt zuerst den SDK Manager. Dieser verwaltet die zur Verfügung stehenden Android Plattformen. Vorher startete zuerst der AVD Manager. Nun ja, man gewöhnt sich schnell an die Umstellung. Nach dem UpDate der Plattform steht das Android 4.0 in seiner Grundfunktionalität zur Verfügung.

Das Android 4.0

Eines vorweg, das Android 4.0 im Emulator hat mich begeistert! Ein grosses Plus ist nun die Geschwindigkeit. Ich hatte mich gar nicht mehr getraut einen Bericht über die Plattformen 3x zu schreiben, da diese im Emulator zu extremen Wartezeiten geführt hatte. Mit dem Android 4.0 ist das ganz anders geworden. Es ist sogar schneller als die Basic Plattformen 2x. Ein weiteres Plus ist die Auswahl der Bildschirm-Grösse. Im neuen Android 4.0 Emulator kann man jetzt verschiedene Bildschirm-Grössen wählen. Vom kleinen Smart-Phone bis zum Big Tablet steht alles zur Verfügung.

Das Design ist eher eine Mischung aus den 2.x und der 3.x Plattformen. Es ist aber übersichtlich und einfach zu bedienen. Wer sich gewohnt ist ein beiden Welten zu Arbeiten der hat keine Probleme damit. Alle Funktionen sind eigentlich gleich zu benutzen wie in den Vorgänger Plattformen 1x, 2x und 3x. Ein Versuch die Kamera-App zu benutzen ist auch erfolgreich gelückt. Damit hatten die anderen Plattformen schon eher die Mühe damit.

Im Tablet-Mode macht das Android auch einen guten Eindruck. Die Navigation ist aus der 3er Serie übernommen, läuft aber wie vorab schon beschrieben viel schneller.

Fazit

Mit dem Android 4.0 SDK ist Google nun wieder ein guter Wurf gelungen. Es macht Spass mit dem Emulator zu arbeiten, vorallem weil er wieder sehr schnell geworden ist. Die Vermischung von Smart-Phone und Tablet Oberfläche macht Sinn und ist für der Programmierer einfacher zu handhaben. Probiert das neue SDK einmal aus, es macht wirklich Spass.

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Bei dem kompilieren eines Mono Projektes unter MonoDevelop auf einem Kubuntu System kam es zu folgender Fehlermeldung:

Could not obtain a C# compiler. C#-Compiler für Mono / .NET 2.0 nicht gefunden.

Das Problem entsteht dadurch das Mono verschiedene Compiler kennt, jeweils für die 1.1er, die 2.0er, die 2.1er und die 4.0er Laufzeitumgebung. Die Lösung ist eine einfache Nachinstallation der betreffenden Compiler mittels:

sudo apt-get install mono-mcs mono-gmcs mono-dmcs

Danach sollten die Projekte wieder ohne Probleme kompilieren.

Weitere Informationen gibt es unter:
http://www.mono-project.com/CSharp_Compiler

20. Oktober 2011

So, die diesjährige Ubucon ist nun ein paar Tage vorbei und es ist Zeit für ein Fazit: Schön war es! ;-)

Meine englischsprachigen 'Folien' sind mittlerweile auch hochgeladen und für alle verfügbar.

Die Veranstaltungen, die ich besucht habe - in diesem Jahr habe ich nicht so viel Programm gestaltet, wie in den letzten Jahren - waren allesamt sehr gut. Ich durfte eine Menge lernen. Vielen Dank dafür!

Hier sind die Programmpunkte, die ich besucht habe (alle weiterführenden Links findet Ihr auf den Ubucon-Seiten, die ich auch verlinkt habe):

Free your slides
Sirko Kemter erzählt wie man mit Inkscape und dem Plugin JessyInk Präsentationen erzeugen kann. Das hat mich beeindruckt, vor allem, da damit auch Animationen möglich sind. Ansonsten werde ich wohl weiter bei LaTeX bleiben, ich habe es nicht so mit der Maus und meine gestalterischen Fähigkeiten bewegen sich in sehr engen Grenzen.

Taskwarrior - Aufgabenverwaltung auf der Kommandozeile
Diesen Workshop habe ich gegeben. Spass hat es gemacht.

Graphen zeichnen mit dot
Dominik Wagenführ hat erklärt, wie man mit dot aus dem Graphviz-Paket Graphen generieren kann. Das werde ich sicher noch einige Male gebrauchen können.

Freie Projekte und ihre Community
Ingo Ebel (RadioTux), Torsten Franz (ubuntuusers.de) und Dominik Wagenführ (freiesMagazin) werden von mir zu "Ihren" Projekten befragt und wo die Herausforderungen sind. Im Nachhinein betrachtet, ist der Community-Aspekt ein wenig zu kurz gekommen. Das Gespräch mit den Besuchern war interessant und es wird ein Video davon geben.

Open-Source-Lizenzen
Oskar Hahn referiert und beantwortet Fragen zu Open-Source-Lizenzen. Das war auch prima. Schliesslich sind wir alle keine Juristen, was schon der alte Jargon-Ausdruck "IANAL" ("I am not a lawyer") sagt. Hiervon brauchen wir mehr gerade auch in Bezug auf die Creative Commons Lizenzen. Danke!

Linux-Quiz
Adrian Böhmichen hat wieder Fragen vorbereitet und Galileo-Computing hat die Preise spendiert. Hat Spass gemacht. Am Schluss bin ich gegen Ingo Ebel angetreten und wir haben uns verständigt, nur die schwierigsten Fragen zu nehmen. Ingo hat berechtigt mit einer richtigen Antwort Vorsprung gewonnen. Ich wusste leider nicht, in welchem Land es die meisten KDE-Installationen gibt ...

LaTeX Tipps und Tricks
Noch einmal Dominik Wagenführ, dieses Mal mit Tipps und Tricks. Mir hat die Art des Workshops gefallen. Dominik hat sich Fragen einfallen lassen und liess sie vom "Publikum" beantworten. Er hatte auch jeweils eine Antwort parat, die vorgestellt wurde. Am Schluss hat er Fragen zum Workshop gestellt und ich durfte ein Buch gewinnen (was ich wirklich gut gebrauchen kann): Die LaTeX-Referenz von Herbert Voß. Vielen Dank Dominik.

Kubuntu
Arthur Schiwon hat von Neuerungen in KDE erzählt. Mir sind das immer noch deutlich zu viele Konfigurationsoptionen, ich bin da einfacher gestrickt. Interessiert hat es mich trotzdem.

Hugsun oder sorgloses Podcasten
Denny Schäfer und Sebastian Meyer berichten über das Projekt Hugsun, das - wenn verfügbar - Podcastern viele Routine-Arbeiten abnehmen und andere Aufgaben vereinfachen kann. Wenn das alles klappt, wird es eine Allround-Lösung für das Podcasting.

Die Materialien der Veranstaltungen von der Ubucon werden hier verlinkt und ständig aktualisiert.

Sebastian und ich haben einen Rückblick auch für DeimHart vertont.

19. Oktober 2011

Heute bin ich über ein interessantes Projekt gestolpert: akonadi-google. Dieser Akonadi-Agenten ermöglicht es endlich, alle Kalender, die ein Google-Account hat, mit Kontact zu synchronisieren (der “Standard”-Dienst ermöglicht ja lediglich Zugriff auf den Hauptkalender). Neben den Kalendern können auch Kontakte und Aufgaben abgeglichen werden. Bei mir läuft Oneiric 64bit, und so habe ich hier akonadi-google installiert: sudo apt-get install cmake build-essential kdelibs5-dev kdepimlibs5-dev libqjson-dev libphonon-dev xsltproc git clone git://anongit.kde.org/akonadi-google cd akonadi-google mkdir build cd build cmake .

Heute bin ich über ein interessantes Projekt gestolpert: akonadi-google. Dieser Akonadi-Agenten ermöglicht es endlich, alle Kalender, die ein Google-Account hat, mit Kontact zu synchronisieren (der “Standard”-Dienst ermöglicht ja lediglich Zugriff auf den Hauptkalender). Neben den Kalendern können auch Kontakte und Aufgaben abgeglichen werden.
Bei mir läuft Oneiric 64bit, und so habe ich hier akonadi-google installiert:

sudo apt-get install cmake build-essential kdelibs5-dev kdepimlibs5-dev libqjson-dev libphonon-dev xsltproc
git clone git://anongit.kde.org/akonadi-google
cd akonadi-google
mkdir build
cd build
cmake ../ -DCMAKE_INSTALL_PREFIX=/usr
make
sudo make install

Danach steht der Agent in der “Akonadi-Einrichtung” zur Verfügung.

Für Kalender, Aufgaben und Kontakte gibt es einen eigenen Agenten (die mit dem Zahnrad)


Hier sieht man mal die Kalenderliste des Accounts. Für jeden Kalender kann/muss man nun einen eigenen Agenten hinzufügen, und schon stehen die Sachen in Kontact bereit!
(english)

Per Group-Dav

Alternativ kann man auch per Groupdav sämtliche Google-Kalender mittels Akonadi synchronisieren (vielen Dank an Etric Celine für die Anleitung).

Man wählt zunächst die DAV-Groupware-Ressource in Akonadi aus:

Beim jetzt folgenden Dialog (Username Passwort) klickt man auf “Abbrechen”

So öffnet sich ein neues Fenster. Als Gruppennamen setze ich “Google-Kalender”. Per “Hinzufügen” kann man nun einzelne Kalender hinzufügen.

Als Zugriffsprotokoll wählt man “CalDAV”. Username und Passwort entsprechen den Google-Logindaten. Interessant wirds dann erst bei der URL. Diese folgt dem Schema

https://www.google.com/calendar/dav/XXXXXXXXXXXX@YYYYYYYYYYYYY/events/

wobei XXXXXX@YYYYYY durch die Kalender-ID zu ersetzen ist.

Wenn man nicht weiss wie die Kalender ID heisst, kann man dies natürlich leicht auf der Google-Webseite der Kalender nachsehen.

Hat man alles richtig eingestellt, dann synchronisiert Akonadi mit Google und andersrum.

Desweiteren kann das Plasmoid “EvdentList” empfohlen werden. Dieses zeigt alle kommenden Events auf dem Desktop an.

Apple wäre es am liebsten, wenn Sie für Netzwerk-Backups die sündhaft teure Time Capsule verwenden, oder einen zweiten Mac, auf dem OS X Server installiert ist. Wesentlich kostengünstiger ist ein Linux-Server -- aber es bedarf einiger Überredungskunst, um Ubuntu und Lion zur Zusammenarbeit zu bewegen.

[2. Update 19.10.2011: Dieser Beitrag behandelt jetzt Ubuntu 11.10 und nicht mehr Ubuntu 11.04!]

[3. Update 3.11.2011: netatalk-Bug umgehen]

Offizielle Backup-Medien für die Time Machine sind:

  • Externe Festplatten
  • Die Time Capsule (das ist ein WLAN-Router von Apple mit eingebauter Festplatte)
  • Ein Mac mit OS X Server

Network Attached Storage Devices (also NAS-Geräte) werden zwar nicht offiziell unterstützt, eignen sich aber ebenfalls wunderbar für Time-Machine-Backups. Zu achten ist aber darauf, dass das NAS-Gerät das Apple Filing Protocol AFP in der neuesten Version unterstützt, d.h. inklusive der DHX2-Authentifizierung. Die meisten NAS-Hersteller sind gerade dabei, entsprechende Updates für Ihre Geräte zusammenzustellen. Eine Anleitung, wie Sie NAS-Festplatten zur Not auch ohne DHX2-Authentifizierung von Lion aus ansprechen können, finden Sie z.B. hier.

Ubuntu 11.10 als Backup-Server für Lion

Was ein NAS-Gerät kann, kann Linux schon längst -- zumal in den meisten NAS ohnedies eine Linux- oder BSD-Distribution läuft. Der Schlüssel zur Zusammenarbeit zwischen OS X und Lion ist der Open-Source-AFP-Server netatalk. Mit Ubuntu 11.10 wird bereits die Lion-kompatible Version 2.2 von netatalk mitgeliefert. (Alle im Folgenden angegebenen Kommandos sind mit root-Rechten bzw. mit sudo auszuführen.)

apt-get install netatalk

Die mitgelieferten Konfigurationsdateien können im Wesentlichen bleiben, wie sie sind. An das Ende von /etc/netatalk/afpd.conf fügen Sie die folgende Zeile hinzu (alles in einer Zeile!):

- -tcp -noddp -uamlist uams_dhx.so,uams_dhx2_passwd.so -nosavepassword

Der rot markierte Zusatz _passwd wählt anstelle von uams_dhx2 ein anderes Authentifizierungsmodul aus, weil das Modul uams_dhx2 in der von Ubuntu ausgelieferten Version fehlerhaft ist und Abstürze verursachen kann.

Am Ende der Datei /etc/netatalk/AppleVolumes.default geben Sie an, welches Verzeichnis für die Time-Machine-Backups verwendet werden soll. In meinem Fall muss sich die Time Machine als kofler beim Netatalk-Server identifizieren (mit meinem Passwort). Ihr Mac soll das Time-Machine-Medium unter dem Namen tm_on_ubuntu sehen. Diese Angaben müssen Sie durch Ihre eigenen Daten ersetzen. Das gesamte folgende Listing ist in eine Zeile zu schreiben!

/backup/tm tm_on_ubuntu allow:kofler cnidscheme:dbd options:usedots,upriv,tm

Als Backup-Verzeichnis verwende ich /backup/tm. Dieses Verzeichnis müssen Sie einrichten und dem Benutzer zuordnen, der sich beim AFP-Server anmelden wird:

mkdir -p /backup/tm

chown -R kofler.kofler /backup/tm

Zuletzt müssen Sie netatalk neu starten:

service netatalk restart

Avahi-Konfiguration

Anders als in der ersten Version dieses Blog-Beitrags beschrieben, ist darüber hinaus keine Avahi-Konfiguration erforderlich! Netatalk macht sich jetzt selbst via Bonjour/Avahi bemerkbar. Eine zusätzliche Avahi-Konfiguration führt zu Namenskonflikten und dazu, dass Netatalk nicht funktioniert!

Wenn Sie entsprechend der ursprünglichen Anleitung die Datei /etc/avahi/services/afpd.service eingerichtet haben, löschen Sie diese Datei wieder und starten den Avahi-Dämon dann neu!

service avahi-daemon restart

Verwendung des Backup-Speichers in der Time Machine

Der Time-Machine-Dialog zur Auswahl des Backup-Mediums sollte nun tm_on_ubuntu anzeigen:

Quelle: awain-Blog

Seit bekannt ist, dass Microsoft nur solche Geräte als Windows 8 kompatibel auszeichnen wird welche das sogenannte Secure Boot unterstützen und standardmäßig eingeschalten haben ist eine Diskussion in der Free Software Community entflammt. So wurde kolportiert, dass es den Herstellern zu aufwändig sein könnte dieses “Feature” unter die Kontrolle des Nutzers zu stellen, sprich: abschaltbar zu machen.

Zur Info: Secure Boot nennt sich ein Verfahren, welches nur Kernel booten soll welche mit einem hinterlegten Schlüssel signiert sind. Die Befürchtungen gehen in die Richtung, dass der Nutzer selbst keine Schlüssel hinzufügen kann (z.B. für den eben selbst kompilierten Kernel) oder nicht in der Lage sein wird Secure Boot etwa durch abschalten zu umgehen. Das hätte zur Folge, dass nur Windows 8 auf diesem Computer lauffähig wäre, da sich nicht einmal eine LiveCD zur Installation starten ließe.

Die FSF hat, als Vorsichtsmaßnahme, eine Stellungnahme veröffentlicht in welcher sie Hardwarehersteller und Microsoft dazu auffordert darauf zu achten, dass durch Secure Boot (welches die FSF Restricted Boot nennt, für den Fall, dass sich die Befürchtungen bewahrheiten) die Freiheiten der Nutzer alternative Software auf dem Computer zu installieren nicht beschnitten wird. Dazu hat die FSF auch eine Unterschriftenaktion gestartet.

Man kann über die FSF (und Richard Stallman) sagen was man will, ich sehe den Sinn dieser Kampagne vor allem darin die Aufmerksamkeit von Hardwareherstellern zu erlangen. Wenn Secure Boot einmal implementiert ist werden die wenigsten Hersteller dazu geneigt sein es im Nachhinein groß anzupassen.

=-=-=-=-=
Powered by Blogilo


Einsortiert unter:DRM, Free Software/Open Source, GNU/Linux, Microsoft, Ubuntuusers

18. Oktober 2011

Nach dem Update auf Ubuntu Oneiric 11.10 war es nicht mehr möglich, eine WLAN-Verbindung aufzubauen. Ich benutze eine Broadcom bcm4322 802.11a/b/g/n-WLAN-Karte, die Hersteller-/Geräte-ID ist die 14e4:432b. Dieses kann man mit dem Befehl

lspci -nnk | grep -iA3 net

herausfinden, der sämtliche PCI-Netzwerkkarten auflistet.

Startet man das Programm zur Verwaltung proprietärer Hardware-Treiber mitels jockey-gtk, so erhält man den Broadcom-STA-Treiber (Modulname: wl) angeboten. Bei mir schlug die Installation allerdings fehl, in der jockey-Logdatei /var/log/jockey.log fand sich nur der Hinweis, dass das Modul wl nicht gefunden wurde, der Befehl modinfo wl bestätigt das.

2011-10-18 19:51:26,340 WARNING: modinfo for module wl failed: ERROR: modinfo: could not find module wl

Das Problem ab Ubuntu Oneiric ist die verwendete Kernelversion >3.0. Die Lösung des Problems besteht darin, alle “alten” Kernelmodule zu deinstallieren und danach die (proprietäre!!) b43-firmware zu installieren. Die beiden Befehle

sudo apt-get purge bcmwl-kernel-source
sudo apt-get install firmware-b43-installer

erledigen das.

Der zweite Installationsbefehl lädt sich die Firmware von openwrt.org herunter (bei mir die wl-Version 5.10.56.27.3 –> direkter Download-Link) und entpackt die Treiber- und Firmware-Dateien.

Nach einem Neustart sollte sich Ubuntu wieder mit einem WLAN-Netz verbinden können. Falls nicht, müssen eventuell noch die Module in die /etc/modules eingetragen werden. Auch eine Überprüfung der Modul-Blacklist wäre in diesem Fall angebracht (je nach vorheriger Konfiguration).

    Das als dringend gekennzeichnete Update von Piwik auf Version 1.6 ist heute morgen erschienen. Mit an Bord sind neben Tonnen an Bugfixes auch wieder neue Funktionen und – worauf ich besonders stolz bin – auch eine (mit) von mir vorgeschlagene Funktion. Diese möchte ich jetzt auch gleich mal vorstellen.

    Und zwar handelt es sich um ein Feature in der API die es erlaubt, die Entwicklung der Besucherzahlen einer bestimmten Seite seiner Internetseite zu analysieren. Als Beispiel: Ihr habt ein Blog und bemerkt plötzlich, dass ein alter Beitrag von euch plötzlich wieder an Beliebtheit gewinnt. Dann ist es sicherlich interessant, die Entwicklung der Besucherzahlen auf dieser Seite zu sehen.

    Bisher gab es keine komfortable Funktion, mit der man dies machen konnte. Jetzt gibt es zumindest für die API eine Möglichkeit, dies zu tun. Die URL, die euch ans Ziel bringt, ist folgendermaßen aufgebaut:

    • http://piwik.domain.com/index.php?module=API → Standard um die API aufzurufen
    • &method=VisitsSummary.getVisits → ruft die Besucherzahlen auf
    • &idSite=1 → Standard, wenn ihr Piwik nur für eine Seite nutzt. Ansonsten ID der gewünschten Seite verwenden
    • &period=day → Besucherzahlen an einem kompletten Tag
    • &date=last30 → Die letzten 30 Tage werden analysiert (jeder Tag eine Ausgabe)
    • &segment=pageUrl==http%3A%2F%2Fdomain.com%2Fpfad%2Fzum%2Fartikel-im-blog%2F
      → Das ist das Herzstück der neuen Funktion: gebt die URL der Seite an, die ihr untersuchen wollt. Achtet auf die encodierte Schreibweise!
    • &format=xml → Gibt das Ausgabeformat an
    • &token_auth=geheimerToken → Berechtigt euch zum Zutritt auf die Besucherzahlen

    Soweit ich das sehe, gibt es diese wirklich sehr interessante Funktion bisher nur in der API, leider noch nicht im Dashboard. ABER: Ich habe noch etwas entdeckt: Man kann dies auch als Graph ausgeben, als statisches PNG-File. Die URL sieht dann so aus:

    • http://piwik.domain.com/index.php?module=API
    • &method=ImageGraph.get
    • &idSite=1
    • &apiModule=VisitsSummary
    • &apiAction=get
    • &graphType=evolution
    • &period=day
    • &date=previous30
    • &width=500&height=250
    • &segment=pageUrl==http%3A%2F%2Fdomain.com%2Fpfad%2Fzum%2Fartikel-im-blog%2F
    • &token_auth=geheimerToken

    Die Ausgabe sieht dann etwa so aus:

    Statische PNG mit Besucherentwicklung einer Unterseite

    Statische PNG mit Besucherentwicklung einer Unterseite

    Ich glaube es ist überflüssig zu erwähnen, dass diese Funktion auch für andere Anwendungsbereiche benutzt werden kann. Ich jedenfalls finde sie super und freue mich, dass es das endlich gibt :)

    Nachdem Update auf Kubuntu 11.10 hat Kdenlive ein kleines Problem. Es funktioniert nicht mehr. Nach dem Start bekommt man dort folgendes zu sehen:

    Der Grund dafür, ist eine Inkompatibilität zwischen MLT und der Kdenlive Version, welche in den Repositories zu finden ist. Abhilfe schafft es hier das PPA ppa:sunab/kdenlive-svn zu benutzen und in der Konsole ein:

    sudo apt-get install --reinstall kdenlive

    einzugeben. Anschließend funktioniert Kdenlive wieder ohne Probleme.

    Weitere Informationen gibt es unter:
    https://launchpad.net/~sunab/+archive/kdenlive-svn
    http://www.kdenlive.org/mantis/view.php?id=2288
    http://www.kdenlive.org/forum/mlts-sdl-module-not-found-0
    http://www.kdenlive.org/forum/kdenlive-not-starting-after-installation

    17. Oktober 2011

    Taskwarrior ist ja in der Lage über verschiedene Protokolle (SSH, rsync, ...) die Aufgaben abzugleichen. Ich verwende hierfür mein Lieblingsprotokoll, welches natürlich SSH ist.

    Leider hat mich mein Internet Service Provider, die Bundesregierung und noch einige andere Organisationen nicht sonderlich lieb, und deshalb habe ich nur relativ wenig Bandbreite.

    Dennoch möchte ich in der Firma, auf dem Server und auch am Desktop die gleichen Aufgaben haben. Ein reiner Online Zugang (einfach nur SSH zum Server) ist in der Firma ja nicht möglich, und auch sonst ist ein Offline Zugang sehr praktisch.

    Aus diesem Grund darf Taskwarrior bei mir direkt mit dem Server abgleichen, von da aus hol ich das an alle möglichen (oder nötigen) Clients. Mit der Zeit wird aber die ~/.task/undo.data zunehmen größer, und genau diese ist ja für das Abgleichen mit task merge zwingend erforderlich.

    Für diese Anwendung hilft daher die gute alte Kompression von SSH, welche in der Datei ~/.ssh/config wie folgt für den Zielrechner aktiviert werden kann:

    Host yourhostname
     Compression yes
     ...

    Optimal wäre natürlich eine Lösung bei der nur Taskwarrior die Kompression verwendet, aber mit dieser Überganglösung bis taskd kommt kann ich auch Leben. Die Nachteile der SSH Kompression stehen übrigens in der Manpage von SSH, ich werde also nicht darauf eingehen ;-)

    Wenn die undo.data etwas länger wird sollte man diese aber ab und an kürzen, ein zuvor angelegtes Backup schützt nicht nur in diesem Fall vor Problemen.

    Taskwarrior ist ja in der Lage über verschiedene Protokolle (SSH, rsync, ...) die Aufgaben abzugleichen. Ich verwende hierfür mein Lieblingsprotokoll, welches natürlich SSH ist.

    Leider hat mich mein Internet Service Provider, die Bundesregierung und noch einige andere Organisationen nicht sonderlich lieb, und deshalb habe ich nur relativ wenig Bandbreite.

    Dennoch möchte ich in der Firma, auf dem Server und auch am Desktop die gleichen Aufgaben haben. Ein reiner Online Zugang (einfach nur SSH zum Server) ist in der Firma ja nicht möglich, und auch sonst ist ein Offline Zugang sehr praktisch.

    Aus diesem Grund darf Taskwarrior bei mir direkt mit dem Server abgleichen, von da aus hol ich das an alle möglichen (oder nötigen) Clients. Mit der Zeit wird aber die ~/.task/undo.data zunehmen größer, und genau diese ist ja für das Abgleichen mit task merge zwingend erforderlich.

    Für diese Anwendung hilft daher die gute alte Kompression von SSH, welche in der Datei ~/.ssh/config wie folgt für den Zielrechner aktiviert werden kann:

    Host yourhostname
     Compression yes
     ...
    

    Optimal wäre natürlich eine Lösung bei der nur Taskwarrior die Kompression verwendet, aber mit dieser Überganglösung bis taskd kommt kann ich auch Leben. Die Nachteile der SSH Kompression stehen übrigens in der Manpage von SSH, ich werde also nicht darauf eingehen ;-)

    Wenn die undo.data etwas länger wird sollte man diese aber ab und an kürzen, ein zuvor angelegtes Backup schützt nicht nur in diesem Fall vor Problemen.

    Der Initiator von Puppy Linux, Barry Kauler, hat in seinem Blog die Veröffentlichung von Version 5.2 von “Wary Puppy” bekanntgegeben. Es handelt sich um ein sogenanntes LTS-Release (“Long Term Support”), welches von den Entwicklern über längere Zeit mit Updates versorgt werden wird.

    Puppy “Wary” Linux (nicht zu verwechseln mit “Lucid Puppy”) arbeitet prinzipiell sehr ressourcenschonend und bietet deshalb auch unter älterer Hardware eine gute Performance. Das Live-Image von Wary Puppy 5.2 ist 123,6 Megabyte klein und kann auf einen Datenträger (CD, USB-Stick, etc.) gebrannt bzw. kopiert werden.

    Vor dem Bootvorgang lässt sich das Image ausserdem komplett in den Arbeitsspeicher (RAM) laden.

    Wary Puppy enthält unter anderem den etwas älteren, aber immer noch gepflegten, stabilen Linux-Kernel 2.6.32.45. Desweiteren wurden unzählige Pakete – darunter PupCamera und PuppyPhone (Psip) – auf den neusten Stand gebracht.

    Wie bei Puppy üblich, ist mit X.org 7.3 – aufgrund der geringen Ressourcenanforderungen – eine etwas ältere Version des Grafik-Servers mit an Bord. Besitzer von neuerer Hardware, die sich mit der Konfiguration ein wenig auskennen, können X.org auf Version 7.6 aktualisieren.

    Der Desktop von Wary Puppy 5.2 (Screenshot: Barry Kauler)

    Weitere Änderungen, welche in die neue Version mit eingeflossen sind, stehen in den Release Notes.

    Wary Puppy 5.2 kann von den Servern des Projekts kostenlos heruntergeladen werden. Dort gibt es auch eine englischsprachige Installationsanleitung. Unerfahrenen Nutzern rate ich jedoch, sich Puppy Linux zuerst in einer virtuellen Maschine zu installieren, dann kann nichts kaputt gehen. ;-)

    In der Vergangenheit hat Barry Kauler seine Linux-Distribution auf Anfrage als CD versandt; Bestellungen dazu hat er per E-Mail entgegengenommen. Auf der Downloadseite schreibt er nun explizit, dass seit Ende 2010 keine weiteren Bestellungen mehr berücksichtigt werden.

    Wer keine Gelegenheit hat, das Image selber zu brennen, findet im Web genügend Anbieter von aktuellen Puppy “Wary” Linux-Datenträgern.

    Quelle: Distrowatch / Barry Kauler



    Die Ubucon 2011 ist nun History und Zeit einen kleinen Bericht zu schreiben, wie es den gewesen ist. Persönlich gesehen, bin ich das ganze Wochenende vom Pech verfolgt worden, zumindest was die öffentlichen Verkehrsmittel betrifft. Am Freitag habe ich es genau noch rechtzeitig in den Vortragsraum geschafft. Aber schon auf dem Rückweg habe ich den ersten Zug nur von hinten gesehen und durfte den nächsten nehmen. Am Samstag und Sonntag morgen habe ich wieder den Zügen beim Abfahren zusehen dürfen. Und am Samstag auf der Heimfahrt, ist der Bus für den Schienenersatzverkehr zwischen Burgstädt und Chemnitz einfach verloren gegangen, aber 45 Minuten später ist dann doch einer aufgetaucht.

    Trotz aller Verschwörungen der ÖPNV gegen mich und den fehlenden 20 Minuten in den morgentlichen Workshops, haben alle Teilnehmer die anvisierten Ziele erreicht und hatten denke ich viel Spaß in den Workshops. Erstaunlich für mich war, dass der erste Inkscape-Workshop mehr Teilnehmer hatte als der GIMP-Workshop am Morgen. Normalerweise ist das eher umgekehrt, da GIMP das schwerer zu erlernende Werkzeug ist und sich mehr für Fotomanipulation interessieren. Auch interessant für mich war, dass es immer noch nicht weiter bekannt ist, dass man SVG gut im Web benutzen kann und seine Vortragsfolien damit gestalten kann. Obwohl ich darüber seit fast 2 Jahren schreibe und auch schon mehrere Vorträge darüber gehalten habe. Zu diesem Vortrag gab es ja schon positives Feedback. Mit den Besucherzahlen meiner Beiträge kann ich vollauf zufrieden sein, ich habe die Kapazität immer ausgeschöpft, für Inkscape hätten wir auch gern einen größeren Raum haben können. Der GIMP-Workshop wurde auch aufgezeichnet, was allerdings bei einem Workshop wenig Sinn macht. Die Fragen der Besucher sind meist schlecht oder gar nicht zu verstehen, ausserdem bin ich auch schon ab und an mal in Richtung eines Besuchers unterwegs um diesem Hilfestellung zu geben. Um so ein Video aufzubereiten, muss man eine Menge schneiden und das ist auch alles gar nicht nötig, denn es gibt für alle Inhalte Screencasts.

    Die Besucher des Vortrages/Präsentation am Freitag “Free your Slides” dürfen sich gleich 3 von diesem anschauen. Der erste zeigt, wie man im herkömmlichen Sinne Vortragsfolien erzeugt, der zweite beschreibt die Methode der Views oder Zoom. Und der Dritte stellt die Alternative zu JessyInk Sozi vor und zeigt, wie man mit diesem entsprechende Slideshows erzeugt.

    Die Besucher des GIMP-Workshop am Samstag morgen, die aus einem Menschen einen Naavi machen wollten, finden eine Kurzanleitung und den entsprechenden Screencast hier.

    Alle die den Inkscape-Workshop, über die Magie die Inkscape zaubern kann besucht haben oder sich dafür interessieren finden eine Kurzanleitung und einen Screencast dafür hier. Wer daran interessiert ist und das lieber live mit mir machen würde, der hat auf dem BLIT im November dazu Gelegenheit, wo ich diesen Workshop ebenfalls gebe.

    Und wer sich für das Tango-Icon interessiert, der findet eine Kurzanleitung mit Screencast und auch entsprechende Links zu den Stylerichtlinien des Tango-Projektes hier.

    Zu Inkscape einmal generell in den 2 oder 3 Stunden, kann ich bei weitem nicht alles ansprechen, was dieses Werkzeug bietet. Deshalb überlege ich schon seit einiger Zeit mal ein Inkscape Kurswochenende anzubieten. Falls daran Interesse besteht, hinterlasst einfach einen Kommentar oder schreibt mir eine Mail.

    Cloud Computing ist einer der großen Trends in der Computerwelt. Die Idee dahinter klingt verlockend: Texte, Songs, Lesezeichen usw. werden zentral auf einem Server abgelegt. Mehrere Nutzer können von verschiedenen Computern auf diese Ressourcen zugreifen, diese Daten verändern und neue Dateien hinzufügen.

    Der große Vorteil ist, dass die Daten für alle Nutzer immer synchron bleiben und dass man quasi von jedem Computer im Internet auf diese Daten zugreifen kann. Externe Dienste wie z.B. Ubuntu One oder Dropbox können mit relativ geringem Aufwand (Installation, Konfiguration) genutzt werden.

    Ein Nachteil ist sicher, dass man sich von einer Internetverbindung abhängig macht. Kein Internet, keine synchronen Daten. Ein zweiter Nachteil ist natürlich, dass die Daten i.d.R. als Kopie bei einem fremden, externen Dienstleister auf der Platte liegen. Sensible Daten möchte man da nicht unbedingt hochladen bzw. man muss sie verschlüsseln. Für viele Menschen ist das herkömmliche Cloud Computing deshalb ein absolutes No go.

    owncloud bookmarks OwnCloud   die Wolke bist Du wolke webdav server planetuu php owncloud OpenID Nautilus MySQL LDAP LAMP GNU cloud computing cloud CardDAV CalDAV apache Ampache AGPL

    OwnCloud: Lesezeichenverwaltung mit dem Webinterface

    Das Open-Source-Projekt OwnCloud verfolgt einen anderen Ansatz. Statt die Daten einer externen Instanz anzuvertrauen, nimmt OwnCloud die Sache selbst in die Hand. Das quelloffene OwnCloud stellt die Struktur zur Verfügung, um Dateien in Eigenverantwortung in einem Netz zentral zu verwalten. Quasi eine persönliche Wolke unter eigener Kontrolle.

    OwnCloud ist am 11.Oktober 2011 in Version 2 erschienen (Lizenz: AGPL Version 3) und ist noch in einem frühen Entwicklungsstadium und noch nicht für den produktiven Einsatz geeignet.

    Wer seine eigene Wolke bauen will, braucht natürlich einen Server, der als zentraler Knotenpunkt erreichbar ist. Dieser muss nicht unbedingt im bösen, bösen Internet stehen. Denkbar ist OwnCloud auch für die bequeme Datenverwaltung in internen Netzen wie z.B. in Firmen, Universitäten oder Wohngemeinschaften.

    Mindestanforderung für OwnCloud ist ein Webserver (wie Apache, bevorzugt mit HTTPS), PHP und eine Datenbank (wie MySQL). Wer so einen LAMP-Server auf die Beine gestellt hat, den wird die Installation von OwnCloud nicht vor unlösbare Probleme stellen.

    Nach der Installation ist der Zugriff  auf die Daten für den Nutzer auf zweierlei Wegen möglich: Zum einen per Login über den Browser (Webinterface). Die Übertragung kann dabei mit HTTPS verschlüsselt werden. Die Daten können aber auch mit Hilfe von WebDAV in Dateimanager wie z.B. Nautilus integriert werden. Beide Methoden werden nicht nur von Linux unterstützt, sondern auch von den gängigen kommerziellen Betriebssystemen.

    https owncloud webdav ubuntu nautilus OwnCloud   die Wolke bist Du wolke webdav server planetuu php owncloud OpenID Nautilus MySQL LDAP LAMP GNU cloud computing cloud CardDAV CalDAV apache Ampache AGPL

    Integration in den lokalen Dateimanager (Ubuntu, Nautilus) mit WebDAV und SSL

    Über das Webinterface können u.a. reguläre Dateien, Lesezeichen und Kontakte verwaltet werden. Außerdem gibt es eine Kalender- und eine Adressbuchanwendung. Sie unterstützt die offenen Protokolle CardDAV and CalDAV zur Synchronisierung von Kalendern wie Thunderbird Lightning, Kontact oder Evolution. Außerdem steht ein Backend für OpenID und LDAP zur Verfügung. Mit Ampache gibt es einen integrierten Musikplayer zum Streamen von Audiodateien:

    owncloud ampache1 OwnCloud   die Wolke bist Du wolke webdav server planetuu php owncloud OpenID Nautilus MySQL LDAP LAMP GNU cloud computing cloud CardDAV CalDAV apache Ampache AGPL

    Musik aus der persönlichen Wolke: Integrierter Ampache Player (Webinterface)

    Wer sich jetzt nicht wirklich vorstellen kann, was OwnCloud kann, oder wer es einfach mal über das Webinterface testen möchte, der kann OwnCloud auf der Webseite des Projekts ausprobieren.

    Allzu hoch sollte man seine Erwartungen an OwnCloud noch nicht schrauben (“It is alpha software in development and should be treated accordingly.”). Im Test nach der Installation funktionierten zwar die grundlegenden Features. Aber auch die eine oder andere Macke trat noch zu Tage – der Teufel steckt oft noch im Detail. Alpha eben.

    OwnCloud 2.0 zeigt, wohin der Weg führen kann. Es braucht aber noch ein bisschen Zeit, um Kinderkrankheiten zu überwinden, weitere Funktionen hinzuzufügen und den Komfort zu verbessern.

    Initiator von OwnCloud ist Frank Karlitschek, der u.a. auch bei Opendesktop.org mitmischt. Rund 15 Hauptentwickler sind zur Zeit an dem Projekt der “selbstverwalteten Wolke” beteiligt. Ein Projekt, das es verdient, im Auge behalten zu werden.

    Ob fremd- oder selbstverwaltet: Die wirklich sensiblen Daten sind netzunabhängig immer noch am Besten aufgehoben. Zum Beispiel auf einer externen, verschlüsselten Festplatte, eingemauert im Fundament eines Ziegenstalls auf den Färöerinseln…

    OwnCloud Links:
    InstallationsanleitungSource codeMailing listIRC channelDiasporaIdenti.ca

    12 Kommentare Permalink | © 2011 by Netz 10 | Tags: , , , , , , , , , , , , , , , , , ,

    16. Oktober 2011

    Tomboy Notes, ein kleines Tool zum erstellen von Desktop-Notizen unter Ubuntu, macht erst so richtig Spaß, wenn man alle seine Einträge mit Ubuntu One synchronisieren kann, damit man sie auch auf anderen Rechnern zur Verfügung hat. Um so ärgerlicher, dass die neue Ubuntu-Version 11.10 Oneiric Ocelot einen kleinen Bug mitbringt, der das Einrichten von Tomboy für neue User unnötig erschwert.

    Wenn man in den “Einstellungen” unter “Abgleichen” den Eintrag “Tomboy im Internet” wählt und anschließend “Connect” klickt, öffnet sich ein Browser-Fenster zum eigenen Ubuntu One-Konto, um Tomboy-Web zu legitimieren. Wenn das erfolgreich ist, steht dort: “Tomboy-Web-Legitimierung erfolgreich. Drücken Sie im Einstellungsfenster von Tomboy die Eingabetaste und klicken Sie auf »Speichern«, um mit dem Abgleich zu beginnen.” Nur kann man nicht auf “Speichern” klicken, weil der Button, anders als in der Abbildung unten, ausgegraut ist.

    Der Fehler ist bekannt und wird hoffentlich bald behoben. Damit der Button nicht mehr ausgegraut ist, muss man im Feld mit der Adresse zum Server einfach etwas hinzufügen, oder den letzten Schrägstrich (Slash) von https://one.ubuntu.com/notes/ löschen. Danach kann man die Konfiguration speichern und der Abgleich der Notizen kann starten.

    Bei Dropbox wird derzeit viel geschraubt und gebastelt wie es ausssieht. Während es für die Version 1.2.45 nun einen RC2 als Forum-Version gibt, hat man in die Forum-Build für Android einige neue Features eingebaut.

    Für Windows, Mac und Linux gibt es allerdings noch eine weitere neue experimentelle Version, die mittlerweile die Versionsnummer 1.3.0 erreicht hat. Die Entwickler versprechen im Forum, dass in dieser Version einige Neuerungen kommen werden. Die erste davon ist schon in der Version vorhanden:

    Batch upload/download of files.

    Bei mir läuft die Version unter Ubuntu 11.10 mit GNOME-Shell und ich konnte bisher noch keine Probleme mit dieser Testversion von Dropbox feststellen. Vor dem Ausprobieren sollte man dennoch ein Backup des Ordners .dropbox.dist im Home-Verzeichnis des Nutzers anlegen. Das Sichern der alten Dropbox-Version und das Installieren der experimentellen Build geht am einfachsten auf der Konsole:

    dropbox stop
    cd ~
    mv .dropbox-dist .dropbox-dist.old
    wget http://dl-web.dropbox.com/u/17/dropbox-lnx.x86-1.3.0.tar.gz
    tar -xzf dropbox-lnx.x86-1.3.0.tar.gz
    dropbox start

    Ich bin schon gespannt, welche anderen neuen Features in die kommende Dropbox-Version einfließen werden. Vorschläge und Feature-Wünsche haben die Entwickler ja genug. Wer neugierig ist kann ja mal in der Votebox nachsehen, was alles von den Nutzern gewünscht wird.