ubuntuusers.de

🚧 Am Sonntag, 5. Mai, werden ab 16 Uhr die Server aktualisiert und eine neue Inyoka-Version veröffentlicht. Das Portal wird mehrmals nicht verfügbar sein.

27. Oktober 2011

Neugierig geworden durch Canonicals aktuelle Pläne, Ubuntu aggressiver Unternehmenskunden schmackhaft zu machen, 5-Jahres-Support für die LTS-Version etc., habe ich mir die Features der neusten Version von Ubuntu 11.10 auf der Homepage angesehen.

Folgender Satz sprang mir dabei gleich ins Auge

„A built-in firewall and virus protection come as standard“

Was? Viren-Schutz als Standard, wurde ClamAV oder irgendein anderer
Virenscanner in die Standardsoftwareauswahl aufgenommen?

Etwas weiter unten wird Stichpunktartig auf die Security-Features eingegangen:

Automatic security updates
Defence against viruses
Anti-phishing
File encryption
Password protection
Built with security in mind

Hier ist jetzt die Rede von einem Schutz gegen Viren, kein Hinweis auf einen Virenscanner. Eigentlich, das was die meisten Linux Distributionen an Standard-Schutz bieten. Also habe ich kurzer Hand Google bemüht und bin auf einen Eintrag bei askubuntu.com gestoßen. Hier wird der „Eingebaute Virenschutz“ erklärt, frei übersetzt:

- Die installation von Software funktioniert nur als Superuser (root), zusätzlicher Schutz durch Apparmor.
- Sicheres Software-Repo-Model, auch durch den Test der Softwarepakete durch Maintainer
- Getestete Software durch den offenen Quellcode, dadurch weniger Bugs.
- Schnelle Software-Patches.

und noch mehr Punkte wie Checksummen etc. werden weiter unten auch aufgeführt.

Also nix mit Virenscanner. In der Regel ist auf einem reinen Linux-System bis Dato auch kein Scanner von Nöten. Nichtsdestotrotz finde ich die Phrase „built-in.. virus protection“ grenzwertig, auch wenn sie wohl hauptsächlich marketingtechnischen Gründen geschuldet sein wird. Dem unwissenden Leser wird hier mehr eine eingebaute Antiviren-Lösung suggeriert, gerade da sich Ubuntu an Anfänger bzw. Umsteiger richtet. Besser fände ich persönlich „secure by default“ oder etwas in dieser Richtung.

Fazit

Also kein eingebauter Virenscanner, sondern „secure“ nach bestem Wissen und Gewissen. ;)

Kurze persönliche Meinung zum aktuellen Kursschwenk:
Persönlich begrüße ich den Schwenk des Supports der LTS-Version auf 5 Jahre, Unternehmens- und Privatkunden denen Stabilität wichtiger wie neuese Features sind, bekommen nun zu Redhat Enterprise, Suse Linux Enterprise und Debian Stable eine zusätliche Alternative ab Ubuntu 12.04. Die 12.04 werde ich mir auf jeden Fall auf einem meiner Systeme installieren und ausgibig testen. :)


26. Oktober 2011

Heute durfte ich meinen ersten echten Bug von Ubuntu im Zusammenspiel mit meiner Hardware (Lenovo R61) erleben: Wenn man Kopfhörer einsteckt hört man darauf nichts - egal, welche Lautstärke eingestellt ist. Entfernt man diese, kommt der Ton wieder normal aus den Lautsprechern.

Aber wie sagt man so schön: "Irgendwann ist immer das erste Mal" (und direkt 2,- Euro ins Phrasenschwein)

Ein Blick auf Launchpad verrät, dass ich nicht der einzige mit dem Problem bin (siehe Bug 868915, 830641 und 829843) sowie das der Bug nicht Lenovo-spezifisch ist. Im Bugreport 830641 wird empfohlen, ein neues Paket aus "ubuntu-audio-dev" zu installieren. Bringt aber (bei mir) genau gar nichts. Also habe ich das Paket direkt wieder deinstalliert.

Als gutes Mitglied der Community und genervt vom Bug beschließe ich darauf hin, auch einen Bugreport zu erstellen. Das geht - was mir bis dahin auch so nicht bewusst war - mit dem Terminalbefehl "ubuntu-bug audio" für Audioprobleme. Darauf hin startet apport, sammelt interaktiv Infos und startet Launchpad im Browser. Der Bugtracker in Launchpad hat mich dann freundlich darauf hingewiesen, dass es das Problem schon gäbe (Bug 876020) und ob mein Problem nicht das gleiche ist. Ist es auch.

Glücklicherweise wird dort auch die Lösung präsentiert, die auch ganz einfach umzusetzen ist: in der Datei /etc/modprobe.d/alsa-base.conf ist nur die folgende Zeile hinzuzufügen:

options snd-hda-intel model=generic

Danach neu booten und es funktioniert. Tight.

Außerdem ist der Sound jetzt, sowohl für Lautsprecher als auch Kopfhörer, in deutlich feineren Abstufungen einstellbar. Vorher (also ohne die Zeile in der Datei) war das ein wenig "holprig" und tendenziell zu leise, selbst bei einer Einstellung von 100% Lautstärke.

Mit sogenannten recovery volumes (.rev Dateien) können defekte oder fehlerhafte WinRar Archive die aus mehreren gesplitteten Dateien bestehen, repariert werden.

Dabei kann jedes .rev File genau eine fehlendes/beschädigtes RAR-Volumen wiederherstellen. Wenn ihr also fünf .rev Files habt, können maximal fünf fehlende Dateien repariert werden.
Wenn allerdings 6 Dateien fehlen, ist die Wiederherstellung dann unmöglich.

Um von .rev Files zu profitieren, müssen diese im selben Ordner wie die einzelnen RAR Dateien liegen.
Zusätzlich muss unrar installiert sein.

sudo apt-get install unrar


Anschließend öffnet ihr ein Terminal, und navigiert in den Ordner, wo die Dateien zum entpacken liegen.
Wenn ihr nun

unrar e Archivname.rar 

eingebt, entpackt unrar eure Daten in das aktuelle Verzeichnis und nutzt bei fehlerhaften Archiven automatisch die .REV Dateien.

Optional, könnt ihr die Dateien auch durch

unrar rc Archivname.rar 

reparieren. Anschließend könnt ihr die Archive mit jedem beliebigem Archivmanager entpacken.

Die Prozedur zum Reparieren kann bei großen Archiven schon mal eine ganz Weile dauern.

Dieses HowTo ist eine Step-by-Step Anleitung um Drupal 7.x auf einem frisch installierten Debian oder Ubuntu zu installieren. Alle benötigten Pakete wie z.B. Apache, PHP, MySQL-Server etc. werden aus dem Repository per aptitude installiert.

I. Voraussetzungen:

Eine detaillierte Anforderungsliste findet man bei: drupalcenter.de, unter Debian bzw. Ubuntu müssen noch folgende Pakete installiert werden: PHP 5.3.x, MySQL, Apache. Unter Debian führt man diesen Befehl als Root aus und bei Ubuntu setzt man wie gewohnt ein sudo vor den eigentlichen Befehl.

aptitude install php5 php5-gd php5-mysql mysql-server apache2

II. Datenbank vorbereiten:

Als Datenbankname verwende ich Drupal7DB, der Benutzer lautet: drupaluser und das Passwort lautet in diesem Beispiel: geheimesPW

mysql -p
Enter password:

mysql> create database Drupal7DB;
Query OK, 1 row affected (0.00 sec)

mysql> CREATE USER 'drupaluser'@'localhost' IDENTIFIED BY 'geheimesPW';
Query OK, 0 rows affected (0.00 sec)

mysql> GRANT SELECT, INSERT, UPDATE, DELETE, CREATE, DROP, INDEX, ALTER ON Drupal7DB.* TO drupaluser@localhost;
Query OK, 0 rows affected (0.00 sec)
mysql> QUIT
Bye

III. Drupal Download und Installationsvorbereitungen

Drupal von der offiziellen Seite downloaden und entpacken:

wget http://ftp.drupal.org/files/projects/drupal-7.8.tar.gz
tar xvzf drupal-7.8.tar.gz

Die Drupal Dateien nach /var/www/drupal verschieben:

mv drupal-7.8/ /var/www/drupal

Berechtigungen setzen: Die Drupal Dateien im Verzeichnis /var/www/drupal müssen alle dem Benutzer, unter dem der Apache läuft (bei Debian und Ubuntu ist das standardmäßig www-data) gehören.

cd /var/www/
chown -R www-data.www-data /var/www/drupal/

Folgende Berechtigungen müssen vor der Installation noch gesetzt werden:

chmod -R 650 /var/www/drupal/sites/default
cd /var/www/drupal/sites/default
cp ./default.settings.php settings.php
chmod 650 settings.php

IV. Drupal Installation
Im Browser http://SERVERNAME/drupal aufrufen und den Installationsassistenten starten

1. Select an installation profile

Drupal 7 - Installation unter Debian / Ubuntu

2. Choose Language

Drupal 7 - Installation unter Debian / Ubuntu

Standardmäßig ist nur Englisch verfügbar, weitere Sprachdateien findet man auf der offiziellen Drupal Seite: localize.drupal.org

3. Database configuration

Drupal 7 - Installation unter Debian / Ubuntu

Hier gibt man die zuvor definierten Werte ein, bei den "Advanced Options" kann man eine alternativen Datenbankadresse und Port definieren, falls die Datenbank nicht auf dem selben Server läuft wie der Apache bzw. der Datenbankport vom Standard MySQL Port 3306 abweicht. Wenn die selbe Datenbank für mehrere Anwendungen benutzt wird, sollte man unbedingt einen Präfix benutzen!

4. Installing Drupal

Drupal 7 - Installation unter Debian / Ubuntu

Drupal legt jetzt die Datenbankstruktur an und schreibt die Einstellungen in die settings.php Datei.

5. Configure Site

Jetzt muss man noch allgemeine Informationen wie z.B. Name, Kontaktdaten, Admin-Benutzer und Ländereinstellungen definieren.

Drupal 7 - Installation unter Debian / Ubuntu

V. Installation abschließen

Die Change-Berechtigungen sollte man aus Sicherheitsgründen sofort wieder rückgängig machen.
chmod 440 -R /var/www/drupal/sites/default/

Drupal Security
Das Modul Security Review ist eine gute Möglichkeit um u.a. die Berechtigungen der gesamten Drupal Installation zu überprüfen.

Vor gut einem Jahr habe ich ein HowTo zur Installation von E17 mittels einer Fremdquelle unter Debian Squeeze verfasst. Laut dem letzten Kommentar scheint es nun mit der Installation unter Squeeze Probleme zu geben. Mangels Squeeze-Installation kann ich hierzu leider nicht mehr viel sagen.

Aber ;)

zu Wheezy und E17 kann ich etwas sagen. Nie war es bisher unter Debian (Testing/Unstable) so einfach E17 auf seine Platte zu verfrachten. Hierzu installiert man sich einfach das Paket

e17

und schon werkelt Enlightenment auf dem PC.

Enlightenment E17


25. Oktober 2011



Über meinen Vortrag auf der Ubucon, wie man mit Inkscape Präsentationen erstellt, ist ja in letzter Zeit oft gesprochen oder geschrieben worden. Für alle die nicht in Leipzig waren und aus dem Raum Oberhausen kommen und sich für dieses Thema interessieren, gibt es eine Möglichkeit. Ich werde diesen Vortrag am Sonntag den 13. November 15.50 Uhr auf der OpenRheinRuhr halten. Am Sonnabend gibt es ausserdem von mir noch den Vortrag “Contribute or Die“, den ich bereits eine Woche zuvor auf dem BLIT in Potsdam halten werde. Also man sieht sich in Oberhausen.

24. Oktober 2011

Mit dem neuen Android Emulator (API Version 14) macht das arbeiten wieder Spass. Die Geschwindigkeit ist wieder da und nun lassen sich alle möglichen Display-Auflösungen testen. Ich habe einmal eine Aufstellung gemacht, welcher Built-In Skin mit welcher Display-Grösse daher kommt.

Skin Liste:

  • HVGA 480×320
  • QVGA 320×240
  • WQVGA400 400×240
  • WQVGA432 432×240
  • WSVGA 1024×600
  • WVGA800 800×480
  • WVGA854 854×480
  • WXGA720 1280×720
  • WXGA800 1280×800

Natürlich kann der Skin auch geändert werden, je nachdem wie man das möchte. Es macht aber Sinn, sich einmal bei den Hersteller genau umzusehen welche Auflösungen die Bildschirme besitzen. Es ist nicht ganz einfach heraus zu finden welches Telefon welche Auflösung besitzt, aber mit ein wenig Aufwand würde das so aussehen:

  • HTC Wildfire S : 480 x 320 (HVGA)
  • Samsung S5830 Galaxy Ace : 480 x 320 (HVGA)
  • Samsung I9100 Galaxy S II :  800 x 480 (WVGA800)
  • Samsung I9250 Galaxy Nexus :   1280 x 720 (WXGA720)
  • Sony Ericsson Xperia mini : 480 x 320 (HVGA)

So gesehen kann man mit der Auswahl des gewünschten Built-In Skin das entsprechende Handymodell schon mal testen. Ich habe für eine Übersicht einmal ein Poster erstellt. Auf dem Poster kann man alle verschiedenen Display Grössen einsehen und vergleichen.

Poster im A0 Format downloaden

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

22. Oktober 2011

Heute habe ich meinen privaten Laptop (Lenovo R61) auf Oneiric gehoben. Nachdem eine Neuinstallation auf dem anderen Laptop problemlos war lief es diesmal nicht ganz rund.

In diesem Fall sollte eine bestehende Natty-Installation via Dist-Upgrade auf Oneiric aktualisiert werde. Der Weg der Wahl war die Kommandozeile (wenn jetzt jemand fragt: "Warum Kommandozeile und nicht Aktualisierungsverwaltung?" lautet die Antwort "Weil ich a) gleichzeitig was für's Wiki von ubuntuusers.de testen wollte und b) theoretisch am Ende des gleiche raus kommt".)

Nun gut, alles vorbereitet und dann auf der Kommandozeile sudo do-release-upgrade aufgerufen - und los geht's. Aufgrund einer schmalbrüstigen DSL-Anbindung (dafür liegt das Dorf wo ich wohne aber landschaftlich sehr schön ;-) ) dauert der Download von rund 870 MB für das Upgrade ca. 2,5 Stunden. Nachdem dieser fertig ist wird alles entpackt mit der eigentlichen Installation der Pakete begonnen. Da das bekanntlich alles automatisch läuft sitzt ich auch nicht die ganze Zeit vor dem Rechner.

Irgendwann will ich aber mal den Status prüfen - der der Bildschirm bleibt dunkel. Der Computer macht zwar irgendwas, zu erkennen an der sporadisch blinkenden HD-Lampe und dem ebenfalls blinkenden WLAN-Symbol, aber regieren tut er nicht. Auch der Wechsel auf einen anderen Terminal ist nicht möglich. Nach ein wenig hin und her drücke ich schließlich den Power-Knopf. Da die bestehende Installation an sich nichts wichtiges enthält und alle Daten auf einer separaten Home-Partition sind, welche zusätzlich gebackupt ist, habe ich da auch kein größeres Problem mit.

Der Neustart funktioniert sogar, also wurde wohl bisher weder das GRUB2 Bootmenü neu geschrieben noch der neue Kernel installiert. Der Bootvorgang ist aber extrem langsam, was wahrscheinlich dem Mix aus alten und neuen Libs / Programmen geschuldet ist und bis zum Login-Bildschirm kommt ich auch nicht. Also muss der nächste Neustart her.

Diesmal wähle ich den "Recovery Modus", der auch ohne Probleme fix bis zum Shell-Prompt bootet. Die das Upgrade "nur noch" zu Ende geführt werden muss gebe ich dpkg --configure -a und es rennt weiter. Diesmal auch ohne Probleme und bis zum Schluss. Der folgende Neustart läuft durch und bringt mich zum neuen Login-Manager. Login ist kein Problem, Unity startet, alles da, alles drin. Glück gehabt? Vielleicht.

Woran es jetzt letztendlich lag, dass der erste Upgrade-Vorgang hängen geblieben ist - keine Ahnung. Ich vermute, dass entweder ein Neustart des X-Servers nicht funktioniert hat oder das Ausblenden des Bildschirms nach 5 min zwecks Energieeinsparung Probleme macht. Sicherheitshalber werde ich das wohl beim nächsten Mal zumindest für das Dist-Upgrade deaktivieren, so dass der Bildschirm immer da ist.

Noch eine kleine Anmerkung zum Upgrade: Zumindest bei mir wurden der alten Login-Manger gdm nicht automatisch entfernt. Ein apt-get purge gdm hat das nachträglich erledigt und keinerlei Probleme verursacht.

Seit einiger Zeit funktionierte das Öffnen von Links aus Thunderbird nicht mehr. In der Datei prefs.js (Profilordner) war alles richtig eingetragen. Mit ein bisschen Suche wurde ich dann noch in der Datei mimeTypes.rdf (Profilordner) mehrfach fündig. Dort die Aufruf-Pfade für Firefox korrigiert und schon werden die Links wieder brav geöffnet.

Den Profilordner findet man bei Neuinstallationen unter /home/(benutzername)/.thunderbird/. Dieser besteht dann aus einem kryptischen Ordnernamen. In diesem Profilordner befinden sich dann die beiden Dateien prefs.js und mimeTypes.rdf.

Seit einiger Zeit funktionierte das Öffnen von Links aus Thunderbird nicht mehr. In der Datei prefs.js (Profilordner) war alles richtig eingetragen. Mit ein bisschen Suche wurde ich dann noch in der Datei mimeTypes.rdf (Profilordner) mehrfach fündig. Dort die Aufruf-Pfade für Firefox korrigiert und schon werden die Links wieder brav geöffnet.

Den Profilordner findet man bei Neuinstallationen unter /home/(benutzername)/.thunderbird/. Dieser besteht dann aus einem kryptischen Ordnernamen. In diesem Profilordner befinden sich dann die beiden Dateien prefs.js und mimeTypes.rdf.

Seit einiger Zeit funktionierte das Öffnen von Links aus Thunderbird nicht mehr. In der Datei prefs.js (Profilordner) war alles richtig eingetragen. Mit ein bisschen Suche wurde ich dann noch in der Datei mimeTypes.rdf (Profilordner) mehrfach fündig. Dort die Aufruf-Pfade für Firefox korrigiert und schon werden die Links wieder brav geöffnet.

Den Profilordner findet man bei Neuinstallationen unter /home/(benutzername)/.thunderbird/. Dieser besteht dann aus einem kryptischen Ordnernamen. In diesem Profilordner befinden sich dann die beiden Dateien prefs.js und mimeTypes.rdf.

Mit etwas Verspätung (hauptsächlich dem Oneiric-Release geschuldet) bringe ich nun hiermit den letzten Teil meiner SparkleShare-Serie auf den Weg:

Zusätzlich zum eigentlichen Thema möchte ich am Ende des Artikels außerdem mein Fazit zu SparkleShare und der Serie ziehen…

Wie ihr in den vergangenen Artikeln ja schon erfahren habt, synchronisiert SparkleShare die Dateien nicht auf einen speziellen SparkleShare-Server, sondern auf ein gewöhnliches GIT-Repository.

Demnach kann man für den Browser-Zugriff auf das Repository natürlich auch jedes beliebige Produkt verwenden, das diese Funktionalität für GIT-Repositories bietet (z.B. ein in Perl entwickeltes GitWeb oder ein unter PHP lauffähiges git-php). In diesem Artikel möchte ich allerdings die Basis-Installation von ViewGit beschreiben.

ViewGit installieren und konfigurieren

Wie auf der Webseite des ViewGit-Projektes zu sehen, wird für den Einsatz der Software lediglich PHP5, Apache (mit dem Modul mod_rewrite) und natürlich GIT verausgesetzt.

Die Installation ist dementsprechend einfach und schnell erledigt:

Zunächst der Download: von der Projektseite wird man über den Download-Link auf die Sourceforge-Seite des Projektes verwiesen. Dort sucht man sich dann die aktuellste Version und lädt das .tar.gz-Paket, am besten direkt auf den Server, herunter.

Entpackt man nun dieses Paket ins httpdocs-Verzeichnis des Apache-Servers erhält man ein Unterverzeichnis viewgit.

Dort hinein wechselt man nun und führt erst einmal die folgenden grundlegenden Befehle aus:

cp doc/example-htaccess .htaccess
cp inc/example-localconfig.php inc/localconfig.php

Der erste Befehl erstellt die Datei .htaccess aus einer Beispieldatei. Diese enthält ein paar Angaben bzgl. PHP und dem mod_rewrite. Der zweite Befehl kopiert eine Beispiel-Konfigurationsdatei auf den Namen der tatsächlich verwendeten Konfigurationsdatei um. Diese Konfigurationsdatei (inc/localconfig.php) muss nun noch an die Gegebenheiten des eigenen Servers angepasst werden.

Öffnet nun also die Datei inc/localconfig.php im Editor. Ihr findet darin folgenden Block:

$conf['projects'] = array(
    'foo' => array('repo' => '/home/user/projects/foo/.git'),
    'bar' => array(
        'repo' => '/home/user/projects/foo/.git',
        'description' => 'Optional overridden description, otherwise it is taken from .git/description'
    ),
);

Ersetzt diesen Block durch einen solchen Block:

$conf['projects'] = array(
    'meinrep' => array('repo' => '/var/sparkleshare/meinrep.git'),
);

Die Repository-Übersicht in ViewGit

Das definiert ein Repository namens meinrep, dessen Repository-Verzeichnis unter /var/sparkleshare/meinrep.git zu finden ist (den Pfad habe ich aus meinem Artikel zur Server-Konfiguration übernommen; ihr müsst ihn natürlich an eure Konfiguration anpassen).

Das war es schon! Nun kann man das ViewGit-Interface im Browser aufrufen und in eurem Repository browsen.

Ganz wichtig: denkt daran, das Interface bei Bedarf mit einem Kennwort zu versehen (Stichwort: htaccess/htpasswd) , damit nicht jeder auf eure Dateien zugreifen kann!

Der Haken mit der Verschlüsselung…

Einen Haken gibt es da (zumindest habe ich dafür bisher keine Lösung gefunden): wer sein Repository verschlüsselt hat, der kann ViewGit leider nur zum Browsen im Verzeichnisbaum benutzen.

Tree-Anzeige des Repository-Inhalts

Denn wenn man per ViewGit eine Datei aus dem verschlüsselten Repository herunterlädt (im rechts gezeigten Bild würde man dazu z.B. auf den blob-Link in der Downloadspalte klicken), dann wird diese nicht automatisch entschlüsselt. Somit müsste man jederzeit seinen Schlüssel dabei haben – inkl. GnuPG zur Entschlüsselung – und die Datei nach dem Herunterladen manuell entschlüsseln.

Auch kann man nicht einfach über das Webinterface in eine verschlüsselte Textdatei sehen. Per Klick auf den Dateinamen bekommt man natürlich auch nur den Inhalt in verschlüsselter Form zu sehen.

Man muss sich also leider entscheiden. Zwischen verschlüsseltem Repository und “wenig Webinterface” einerseits und unverschlüsseltem Repository und “viel Webinterface”.

Fazit zu Sparkleshare

Nachdem ich mich nun im Zuge meiner Blog-Artikel eine Zeit lang mit SparkleShare beschäftigt habe, möchte ich nun zum Schluss der Serie ein kleines Fazit dazu ziehen – auch in Bezug auf die geposteten Leser-Kommentare:

  • Dass man einerseits eine automatische Datei-Synchronisation bekommt und andererseits alles selbst unter Kontrolle hat finde ich nach wie vor sehr reizvoll.
  • Was mir am “Prinzip SparkleShare” extrem gut gefällt ist, dass die Server-Seite in kürzester Zeit und mit minimalem Aufwand eingerichtet werden kann. Auch sind die Anforderungen an den Server angenehm überschaubar.
  • Ganz klar für SparkleShare spricht die Tatsache, dass man seine Daten eben nicht irgendwo hin aus der Hand gibt, sondern auf dem eigenen Server speichert. Auch die offene Möglichkeit der Verschlüsselung ist nett.
  • Wie “dAnjou” richtigerweise zu meinem ersten Artikel geschrieben hat, ist SparkleShare für große, sich oft ändernde Datenmengen eher ungeeignet. Der Grund dafür ist, dass GIT ein Versionskontrollsystem ist, das jede Änderung einer Datei protokolliert. Somit wird mit jeder Dateiänderung immer mehr Speicherplatz “verbraten”, obwohl die Datei selbst vielleicht gar nicht größer geworden ist.
  • Eine Besserung wäre dann in Sicht, wenn sich der SparkleShare-Client in Zukunft z.B. auch mit einem WebDav-Server unterhalten könnte. Als Alternative werde ich noch versuchen, automatisch alte Versionen aus dem Repository entfernen zu lassen. Sobald ich hierzu etwas “handfestes” haben sollte, werde ich euch das natürlich nicht vorenthalten und einen Artikel dazu schreiben.
  • SparkleShare scheint also seine Stärken in eher kleineren Dateien zu haben – ich denke da an Konfigurationsdateien oder den eigenen Shellscripts, Dokumente o.ä. In diesem Fall ist die Verwendung von GIT ggfs. sogar von Vorteil. Denn, wie gesagt, ist jede Version rekonstruierbar.
  • “Freundhansen” hatte Bedenken geäußert, dass SparkleShare vielleicht nur “eine weitere OpenSource Krücke” sein könnte. Das wird man natürlich abwarten müssen. Meine Hoffnung ist natürlich, dass sich noch einiges in der Entwicklung tun wird. Aber: who knows?! Trotzdem kann ich dem Programm in der jetzigen Version auch schon vieles abgewinnen – warum sollte man es also nicht probieren?
  • Auch wurden ein paar Alternativen von den Kommentatoren genannt, z.B. rsync (“Platz da, hier komm ich”) oder OwnCloud (“Poapfel”). Beides sicher auch wirklich gute Alternativen. Wobei mir bei OwnCloud im Vergleich zu SparkleShare die automatische Synchronisation fehlt.
  • “Georg” hat schließlich zum vorigen Artikel einen interessanten Kommentar beigetragen. Dabei hat er auf diesen Blog-Beitrag verwiesen, in dem eine andere Art und Weise der Verschlüsselung beschrieben ist. Das sieht mir sehr interessant aus – ich werde mir mal die Zeit nehmen müssen, um es mal selbst auszuprobieren.

Letztendlich komme ich auf positives Endergebnis und für mich zu dem Schluss, dass ich SparkleShare vermutlich für die bisher in Ubuntu One synchronisierten Dateien (eher geringes Volumen) verwenden werde – in der Hoffnung, dass das Produkt fleißig weiterentwickelt wird (übrigens ist in den letzten Tagen ein Android-Client veröffentlicht worden)…

pssst, weitersagen!

21. Oktober 2011

Ich bin ein Fan von rahmenlosen Konsolenfenstern. Deshalb möchte ich Euch zeigen wie man Rahmen, Scrollbalken und Menüleiste abschaltet und Ihr das Fenster anschließend auch noch bedienen könnt.

Für die Konfiguration benötigen wir den “CompizConfig Einstellungs-Manager”. Dieser lässt sich wie folgt installieren:
   sudo apt-get install compizconfig-settings-manager
 
Über “System / Einstellungen / CompizConfig Einstellungs-Manager” lässt sich das Tool öffnen. In der Kategorie “Effekte” befindet sich der Punkt “Fensterdekoration”. Hier ersetzen wir unter “Dekoration für Fenster” das “any” mit “(any) & !(class=Gnome-terminal)”
 

Anschließend ist der Rahmen verschwunden. Als nächsten Punkt deaktivieren wir den Scrollbalken unter “Bearbeiten / Profileinstellungen / Rollbalken” und setzen den Punkt “Rollbalken ist:” von “auf der rechten Seite” auf “Deaktiviert”
 

Bevor wir nun die Menüleiste deaktivieren, müssen wir eine Tastenkombination festlegen um die später wieder aufrufen zu können. Dieses geht unter “Bearbeiten / Tastenkombinationen … /” in der Aktionskategorie “Ansicht / Menüleiste anzeigen bzw verbergen”. Die Menüleiste blendet man nun mit der Tastenkombination oder “Ansicht / Menüleiste” aus.
 

 
Abschließend noch ein paar Tipps, wie Ihr das Fenster nun mit der Maus bedienen könnt:
alt + mittlere Maustaste = Größe des Fensters ändern
alt + linke Maustaste = Fenster verschieben
alt + rechte Maustaste = Verschiedene Funktionen, unter anderem minimieren, maximieren und schließen
rechte Maustaste + Menüleiste anzeigen = ebenfalls eine Möglichkeit die Menüleiste wieder einzublenden
 
 
Anleitung wurde mit Ubuntu 10.04 unter Gnome 2.30.2 erstellt
 
Fazit: Und so sieht das Konsolenfenster anschließend aus, ob mans brauch oder nicht, ich finds einfach nur klasse.
 

 
Klar soweit?
Euer RSB

Das nächste Ubuntu Release wird nicht wie bisher nur 3 Jahre Support für die Desktop Version bieten, sondern 5 Jahre.
Dies meldete soeben Canonical im eigenem Blog.

Durch die Anhebung sollen vor allem Unternehmen profitieren, die lange Support Phasen meist voraussetzen. Aber auch Privatuser die ein stabiles System zum Arbeiten brauchen und nicht die neusten Updates brauchen werden damit glücklich werden.
Es gibt ja immer noch eine Menge Leute, die mit Windows XP unterwegs sind, dass nächste Woche sein 10 jähriges Release feiert.

Der Support Zeitraum für die Server Version bleibt weiterhin bei 5 Jahren.



Ubuntu Precise Pangolin erscheint im April 2012 und wird das mittlerweile vierte LTS Release von Canonical.

Bleibt noch abzuwarten, ob Ubuntu 12.04 ein würdiges LTS Release wird. Ubuntu 11.10 war meiner Meinung nach schon mal ein Schritt in die richtige Richtung.

Diese Nachricht haben sicher einige von euch schon vernommen. Das neue Android 4.0 ist geboren und wird unsere Smart-Phone und Tablet-Welt wieder aufmischen. Ich habe mich auch damit befasst und meinen alt gedienten Android Emulator mit Ubuntu ausgegraben. Ich habe das SDK von Google neu installiert und den Emulator einmal angeworfen.

Das SDK wurde umgebaut und als erste Übersicht hat man jetzt zuerst den SDK Manager. Dieser verwaltet die zur Verfügung stehenden Android Plattformen. Vorher startete zuerst der AVD Manager. Nun ja, man gewöhnt sich schnell an die Umstellung. Nach dem UpDate der Plattform steht das Android 4.0 in seiner Grundfunktionalität zur Verfügung.

Das Android 4.0

Eines vorweg, das Android 4.0 im Emulator hat mich begeistert! Ein grosses Plus ist nun die Geschwindigkeit. Ich hatte mich gar nicht mehr getraut einen Bericht über die Plattformen 3x zu schreiben, da diese im Emulator zu extremen Wartezeiten geführt hatte. Mit dem Android 4.0 ist das ganz anders geworden. Es ist sogar schneller als die Basic Plattformen 2x. Ein weiteres Plus ist die Auswahl der Bildschirm-Grösse. Im neuen Android 4.0 Emulator kann man jetzt verschiedene Bildschirm-Grössen wählen. Vom kleinen Smart-Phone bis zum Big Tablet steht alles zur Verfügung.

Das Design ist eher eine Mischung aus den 2.x und der 3.x Plattformen. Es ist aber übersichtlich und einfach zu bedienen. Wer sich gewohnt ist ein beiden Welten zu Arbeiten der hat keine Probleme damit. Alle Funktionen sind eigentlich gleich zu benutzen wie in den Vorgänger Plattformen 1x, 2x und 3x. Ein Versuch die Kamera-App zu benutzen ist auch erfolgreich gelückt. Damit hatten die anderen Plattformen schon eher die Mühe damit.

Im Tablet-Mode macht das Android auch einen guten Eindruck. Die Navigation ist aus der 3er Serie übernommen, läuft aber wie vorab schon beschrieben viel schneller.

Fazit

Mit dem Android 4.0 SDK ist Google nun wieder ein guter Wurf gelungen. Es macht Spass mit dem Emulator zu arbeiten, vorallem weil er wieder sehr schnell geworden ist. Die Vermischung von Smart-Phone und Tablet Oberfläche macht Sinn und ist für der Programmierer einfacher zu handhaben. Probiert das neue SDK einmal aus, es macht wirklich Spass.

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Bei dem kompilieren eines Mono Projektes unter MonoDevelop auf einem Kubuntu System kam es zu folgender Fehlermeldung:

Could not obtain a C# compiler. C#-Compiler für Mono / .NET 2.0 nicht gefunden.

Das Problem entsteht dadurch das Mono verschiedene Compiler kennt, jeweils für die 1.1er, die 2.0er, die 2.1er und die 4.0er Laufzeitumgebung. Die Lösung ist eine einfache Nachinstallation der betreffenden Compiler mittels:

sudo apt-get install mono-mcs mono-gmcs mono-dmcs

Danach sollten die Projekte wieder ohne Probleme kompilieren.

Weitere Informationen gibt es unter:
http://www.mono-project.com/CSharp_Compiler

20. Oktober 2011

So, die diesjährige Ubucon ist nun ein paar Tage vorbei und es ist Zeit für ein Fazit: Schön war es! ;-)

Meine englischsprachigen 'Folien' sind mittlerweile auch hochgeladen und für alle verfügbar.

Die Veranstaltungen, die ich besucht habe - in diesem Jahr habe ich nicht so viel Programm gestaltet, wie in den letzten Jahren - waren allesamt sehr gut. Ich durfte eine Menge lernen. Vielen Dank dafür!

Hier sind die Programmpunkte, die ich besucht habe (alle weiterführenden Links findet Ihr auf den Ubucon-Seiten, die ich auch verlinkt habe):

Free your slides
Sirko Kemter erzählt wie man mit Inkscape und dem Plugin JessyInk Präsentationen erzeugen kann. Das hat mich beeindruckt, vor allem, da damit auch Animationen möglich sind. Ansonsten werde ich wohl weiter bei LaTeX bleiben, ich habe es nicht so mit der Maus und meine gestalterischen Fähigkeiten bewegen sich in sehr engen Grenzen.

Taskwarrior - Aufgabenverwaltung auf der Kommandozeile
Diesen Workshop habe ich gegeben. Spass hat es gemacht.

Graphen zeichnen mit dot
Dominik Wagenführ hat erklärt, wie man mit dot aus dem Graphviz-Paket Graphen generieren kann. Das werde ich sicher noch einige Male gebrauchen können.

Freie Projekte und ihre Community
Ingo Ebel (RadioTux), Torsten Franz (ubuntuusers.de) und Dominik Wagenführ (freiesMagazin) werden von mir zu "Ihren" Projekten befragt und wo die Herausforderungen sind. Im Nachhinein betrachtet, ist der Community-Aspekt ein wenig zu kurz gekommen. Das Gespräch mit den Besuchern war interessant und es wird ein Video davon geben.

Open-Source-Lizenzen
Oskar Hahn referiert und beantwortet Fragen zu Open-Source-Lizenzen. Das war auch prima. Schliesslich sind wir alle keine Juristen, was schon der alte Jargon-Ausdruck "IANAL" ("I am not a lawyer") sagt. Hiervon brauchen wir mehr gerade auch in Bezug auf die Creative Commons Lizenzen. Danke!

Linux-Quiz
Adrian Böhmichen hat wieder Fragen vorbereitet und Galileo-Computing hat die Preise spendiert. Hat Spass gemacht. Am Schluss bin ich gegen Ingo Ebel angetreten und wir haben uns verständigt, nur die schwierigsten Fragen zu nehmen. Ingo hat berechtigt mit einer richtigen Antwort Vorsprung gewonnen. Ich wusste leider nicht, in welchem Land es die meisten KDE-Installationen gibt ...

LaTeX Tipps und Tricks
Noch einmal Dominik Wagenführ, dieses Mal mit Tipps und Tricks. Mir hat die Art des Workshops gefallen. Dominik hat sich Fragen einfallen lassen und liess sie vom "Publikum" beantworten. Er hatte auch jeweils eine Antwort parat, die vorgestellt wurde. Am Schluss hat er Fragen zum Workshop gestellt und ich durfte ein Buch gewinnen (was ich wirklich gut gebrauchen kann): Die LaTeX-Referenz von Herbert Voß. Vielen Dank Dominik.

Kubuntu
Arthur Schiwon hat von Neuerungen in KDE erzählt. Mir sind das immer noch deutlich zu viele Konfigurationsoptionen, ich bin da einfacher gestrickt. Interessiert hat es mich trotzdem.

Hugsun oder sorgloses Podcasten
Denny Schäfer und Sebastian Meyer berichten über das Projekt Hugsun, das - wenn verfügbar - Podcastern viele Routine-Arbeiten abnehmen und andere Aufgaben vereinfachen kann. Wenn das alles klappt, wird es eine Allround-Lösung für das Podcasting.

Die Materialien der Veranstaltungen von der Ubucon werden hier verlinkt und ständig aktualisiert.

Sebastian und ich haben einen Rückblick auch für DeimHart vertont.

19. Oktober 2011

Heute bin ich über ein interessantes Projekt gestolpert: akonadi-google. Dieser Akonadi-Agenten ermöglicht es endlich, alle Kalender, die ein Google-Account hat, mit Kontact zu synchronisieren (der “Standard”-Dienst ermöglicht ja lediglich Zugriff auf den Hauptkalender). Neben den Kalendern können auch Kontakte und Aufgaben abgeglichen werden. Bei mir läuft Oneiric 64bit, und so habe ich hier akonadi-google installiert: sudo apt-get install cmake build-essential kdelibs5-dev kdepimlibs5-dev libqjson-dev libphonon-dev xsltproc git clone git://anongit.kde.org/akonadi-google cd akonadi-google mkdir build cd build cmake .

Heute bin ich über ein interessantes Projekt gestolpert: akonadi-google. Dieser Akonadi-Agenten ermöglicht es endlich, alle Kalender, die ein Google-Account hat, mit Kontact zu synchronisieren (der “Standard”-Dienst ermöglicht ja lediglich Zugriff auf den Hauptkalender). Neben den Kalendern können auch Kontakte und Aufgaben abgeglichen werden.
Bei mir läuft Oneiric 64bit, und so habe ich hier akonadi-google installiert:

sudo apt-get install cmake build-essential kdelibs5-dev kdepimlibs5-dev libqjson-dev libphonon-dev xsltproc
git clone git://anongit.kde.org/akonadi-google
cd akonadi-google
mkdir build
cd build
cmake ../ -DCMAKE_INSTALL_PREFIX=/usr
make
sudo make install

Danach steht der Agent in der “Akonadi-Einrichtung” zur Verfügung.

Für Kalender, Aufgaben und Kontakte gibt es einen eigenen Agenten (die mit dem Zahnrad)


Hier sieht man mal die Kalenderliste des Accounts. Für jeden Kalender kann/muss man nun einen eigenen Agenten hinzufügen, und schon stehen die Sachen in Kontact bereit!
(english)

Per Group-Dav

Alternativ kann man auch per Groupdav sämtliche Google-Kalender mittels Akonadi synchronisieren (vielen Dank an Etric Celine für die Anleitung).

Man wählt zunächst die DAV-Groupware-Ressource in Akonadi aus:

Beim jetzt folgenden Dialog (Username Passwort) klickt man auf “Abbrechen”

So öffnet sich ein neues Fenster. Als Gruppennamen setze ich “Google-Kalender”. Per “Hinzufügen” kann man nun einzelne Kalender hinzufügen.

Als Zugriffsprotokoll wählt man “CalDAV”. Username und Passwort entsprechen den Google-Logindaten. Interessant wirds dann erst bei der URL. Diese folgt dem Schema

https://www.google.com/calendar/dav/XXXXXXXXXXXX@YYYYYYYYYYYYY/events/

wobei XXXXXX@YYYYYY durch die Kalender-ID zu ersetzen ist.

Wenn man nicht weiss wie die Kalender ID heisst, kann man dies natürlich leicht auf der Google-Webseite der Kalender nachsehen.

Hat man alles richtig eingestellt, dann synchronisiert Akonadi mit Google und andersrum.

Desweiteren kann das Plasmoid “EvdentList” empfohlen werden. Dieses zeigt alle kommenden Events auf dem Desktop an.

Apple wäre es am liebsten, wenn Sie für Netzwerk-Backups die sündhaft teure Time Capsule verwenden, oder einen zweiten Mac, auf dem OS X Server installiert ist. Wesentlich kostengünstiger ist ein Linux-Server -- aber es bedarf einiger Überredungskunst, um Ubuntu und Lion zur Zusammenarbeit zu bewegen.

[2. Update 19.10.2011: Dieser Beitrag behandelt jetzt Ubuntu 11.10 und nicht mehr Ubuntu 11.04!]

[3. Update 3.11.2011: netatalk-Bug umgehen]

Offizielle Backup-Medien für die Time Machine sind:

  • Externe Festplatten
  • Die Time Capsule (das ist ein WLAN-Router von Apple mit eingebauter Festplatte)
  • Ein Mac mit OS X Server

Network Attached Storage Devices (also NAS-Geräte) werden zwar nicht offiziell unterstützt, eignen sich aber ebenfalls wunderbar für Time-Machine-Backups. Zu achten ist aber darauf, dass das NAS-Gerät das Apple Filing Protocol AFP in der neuesten Version unterstützt, d.h. inklusive der DHX2-Authentifizierung. Die meisten NAS-Hersteller sind gerade dabei, entsprechende Updates für Ihre Geräte zusammenzustellen. Eine Anleitung, wie Sie NAS-Festplatten zur Not auch ohne DHX2-Authentifizierung von Lion aus ansprechen können, finden Sie z.B. hier.

Ubuntu 11.10 als Backup-Server für Lion

Was ein NAS-Gerät kann, kann Linux schon längst -- zumal in den meisten NAS ohnedies eine Linux- oder BSD-Distribution läuft. Der Schlüssel zur Zusammenarbeit zwischen OS X und Lion ist der Open-Source-AFP-Server netatalk. Mit Ubuntu 11.10 wird bereits die Lion-kompatible Version 2.2 von netatalk mitgeliefert. (Alle im Folgenden angegebenen Kommandos sind mit root-Rechten bzw. mit sudo auszuführen.)

apt-get install netatalk

Die mitgelieferten Konfigurationsdateien können im Wesentlichen bleiben, wie sie sind. An das Ende von /etc/netatalk/afpd.conf fügen Sie die folgende Zeile hinzu (alles in einer Zeile!):

- -tcp -noddp -uamlist uams_dhx.so,uams_dhx2_passwd.so -nosavepassword

Der rot markierte Zusatz _passwd wählt anstelle von uams_dhx2 ein anderes Authentifizierungsmodul aus, weil das Modul uams_dhx2 in der von Ubuntu ausgelieferten Version fehlerhaft ist und Abstürze verursachen kann.

Am Ende der Datei /etc/netatalk/AppleVolumes.default geben Sie an, welches Verzeichnis für die Time-Machine-Backups verwendet werden soll. In meinem Fall muss sich die Time Machine als kofler beim Netatalk-Server identifizieren (mit meinem Passwort). Ihr Mac soll das Time-Machine-Medium unter dem Namen tm_on_ubuntu sehen. Diese Angaben müssen Sie durch Ihre eigenen Daten ersetzen. Das gesamte folgende Listing ist in eine Zeile zu schreiben!

/backup/tm tm_on_ubuntu allow:kofler cnidscheme:dbd options:usedots,upriv,tm

Als Backup-Verzeichnis verwende ich /backup/tm. Dieses Verzeichnis müssen Sie einrichten und dem Benutzer zuordnen, der sich beim AFP-Server anmelden wird:

mkdir -p /backup/tm

chown -R kofler.kofler /backup/tm

Zuletzt müssen Sie netatalk neu starten:

service netatalk restart

Avahi-Konfiguration

Anders als in der ersten Version dieses Blog-Beitrags beschrieben, ist darüber hinaus keine Avahi-Konfiguration erforderlich! Netatalk macht sich jetzt selbst via Bonjour/Avahi bemerkbar. Eine zusätzliche Avahi-Konfiguration führt zu Namenskonflikten und dazu, dass Netatalk nicht funktioniert!

Wenn Sie entsprechend der ursprünglichen Anleitung die Datei /etc/avahi/services/afpd.service eingerichtet haben, löschen Sie diese Datei wieder und starten den Avahi-Dämon dann neu!

service avahi-daemon restart

Verwendung des Backup-Speichers in der Time Machine

Der Time-Machine-Dialog zur Auswahl des Backup-Mediums sollte nun tm_on_ubuntu anzeigen:

Quelle: awain-Blog

Seit bekannt ist, dass Microsoft nur solche Geräte als Windows 8 kompatibel auszeichnen wird welche das sogenannte Secure Boot unterstützen und standardmäßig eingeschalten haben ist eine Diskussion in der Free Software Community entflammt. So wurde kolportiert, dass es den Herstellern zu aufwändig sein könnte dieses “Feature” unter die Kontrolle des Nutzers zu stellen, sprich: abschaltbar zu machen.

Zur Info: Secure Boot nennt sich ein Verfahren, welches nur Kernel booten soll welche mit einem hinterlegten Schlüssel signiert sind. Die Befürchtungen gehen in die Richtung, dass der Nutzer selbst keine Schlüssel hinzufügen kann (z.B. für den eben selbst kompilierten Kernel) oder nicht in der Lage sein wird Secure Boot etwa durch abschalten zu umgehen. Das hätte zur Folge, dass nur Windows 8 auf diesem Computer lauffähig wäre, da sich nicht einmal eine LiveCD zur Installation starten ließe.

Die FSF hat, als Vorsichtsmaßnahme, eine Stellungnahme veröffentlicht in welcher sie Hardwarehersteller und Microsoft dazu auffordert darauf zu achten, dass durch Secure Boot (welches die FSF Restricted Boot nennt, für den Fall, dass sich die Befürchtungen bewahrheiten) die Freiheiten der Nutzer alternative Software auf dem Computer zu installieren nicht beschnitten wird. Dazu hat die FSF auch eine Unterschriftenaktion gestartet.

Man kann über die FSF (und Richard Stallman) sagen was man will, ich sehe den Sinn dieser Kampagne vor allem darin die Aufmerksamkeit von Hardwareherstellern zu erlangen. Wenn Secure Boot einmal implementiert ist werden die wenigsten Hersteller dazu geneigt sein es im Nachhinein groß anzupassen.

=-=-=-=-=
Powered by Blogilo


Einsortiert unter:DRM, Free Software/Open Source, GNU/Linux, Microsoft, Ubuntuusers

18. Oktober 2011

Nach dem Update auf Ubuntu Oneiric 11.10 war es nicht mehr möglich, eine WLAN-Verbindung aufzubauen. Ich benutze eine Broadcom bcm4322 802.11a/b/g/n-WLAN-Karte, die Hersteller-/Geräte-ID ist die 14e4:432b. Dieses kann man mit dem Befehl

lspci -nnk | grep -iA3 net

herausfinden, der sämtliche PCI-Netzwerkkarten auflistet.

Startet man das Programm zur Verwaltung proprietärer Hardware-Treiber mitels jockey-gtk, so erhält man den Broadcom-STA-Treiber (Modulname: wl) angeboten. Bei mir schlug die Installation allerdings fehl, in der jockey-Logdatei /var/log/jockey.log fand sich nur der Hinweis, dass das Modul wl nicht gefunden wurde, der Befehl modinfo wl bestätigt das.

2011-10-18 19:51:26,340 WARNING: modinfo for module wl failed: ERROR: modinfo: could not find module wl

Das Problem ab Ubuntu Oneiric ist die verwendete Kernelversion >3.0. Die Lösung des Problems besteht darin, alle “alten” Kernelmodule zu deinstallieren und danach die (proprietäre!!) b43-firmware zu installieren. Die beiden Befehle

sudo apt-get purge bcmwl-kernel-source
sudo apt-get install firmware-b43-installer

erledigen das.

Der zweite Installationsbefehl lädt sich die Firmware von openwrt.org herunter (bei mir die wl-Version 5.10.56.27.3 –> direkter Download-Link) und entpackt die Treiber- und Firmware-Dateien.

Nach einem Neustart sollte sich Ubuntu wieder mit einem WLAN-Netz verbinden können. Falls nicht, müssen eventuell noch die Module in die /etc/modules eingetragen werden. Auch eine Überprüfung der Modul-Blacklist wäre in diesem Fall angebracht (je nach vorheriger Konfiguration).

    Das als dringend gekennzeichnete Update von Piwik auf Version 1.6 ist heute morgen erschienen. Mit an Bord sind neben Tonnen an Bugfixes auch wieder neue Funktionen und – worauf ich besonders stolz bin – auch eine (mit) von mir vorgeschlagene Funktion. Diese möchte ich jetzt auch gleich mal vorstellen.

    Und zwar handelt es sich um ein Feature in der API die es erlaubt, die Entwicklung der Besucherzahlen einer bestimmten Seite seiner Internetseite zu analysieren. Als Beispiel: Ihr habt ein Blog und bemerkt plötzlich, dass ein alter Beitrag von euch plötzlich wieder an Beliebtheit gewinnt. Dann ist es sicherlich interessant, die Entwicklung der Besucherzahlen auf dieser Seite zu sehen.

    Bisher gab es keine komfortable Funktion, mit der man dies machen konnte. Jetzt gibt es zumindest für die API eine Möglichkeit, dies zu tun. Die URL, die euch ans Ziel bringt, ist folgendermaßen aufgebaut:

    • http://piwik.domain.com/index.php?module=API → Standard um die API aufzurufen
    • &method=VisitsSummary.getVisits → ruft die Besucherzahlen auf
    • &idSite=1 → Standard, wenn ihr Piwik nur für eine Seite nutzt. Ansonsten ID der gewünschten Seite verwenden
    • &period=day → Besucherzahlen an einem kompletten Tag
    • &date=last30 → Die letzten 30 Tage werden analysiert (jeder Tag eine Ausgabe)
    • &segment=pageUrl==http%3A%2F%2Fdomain.com%2Fpfad%2Fzum%2Fartikel-im-blog%2F
      → Das ist das Herzstück der neuen Funktion: gebt die URL der Seite an, die ihr untersuchen wollt. Achtet auf die encodierte Schreibweise!
    • &format=xml → Gibt das Ausgabeformat an
    • &token_auth=geheimerToken → Berechtigt euch zum Zutritt auf die Besucherzahlen

    Soweit ich das sehe, gibt es diese wirklich sehr interessante Funktion bisher nur in der API, leider noch nicht im Dashboard. ABER: Ich habe noch etwas entdeckt: Man kann dies auch als Graph ausgeben, als statisches PNG-File. Die URL sieht dann so aus:

    • http://piwik.domain.com/index.php?module=API
    • &method=ImageGraph.get
    • &idSite=1
    • &apiModule=VisitsSummary
    • &apiAction=get
    • &graphType=evolution
    • &period=day
    • &date=previous30
    • &width=500&height=250
    • &segment=pageUrl==http%3A%2F%2Fdomain.com%2Fpfad%2Fzum%2Fartikel-im-blog%2F
    • &token_auth=geheimerToken

    Die Ausgabe sieht dann etwa so aus:

    Statische PNG mit Besucherentwicklung einer Unterseite

    Statische PNG mit Besucherentwicklung einer Unterseite

    Ich glaube es ist überflüssig zu erwähnen, dass diese Funktion auch für andere Anwendungsbereiche benutzt werden kann. Ich jedenfalls finde sie super und freue mich, dass es das endlich gibt :)

    Nachdem Update auf Kubuntu 11.10 hat Kdenlive ein kleines Problem. Es funktioniert nicht mehr. Nach dem Start bekommt man dort folgendes zu sehen:

    Der Grund dafür, ist eine Inkompatibilität zwischen MLT und der Kdenlive Version, welche in den Repositories zu finden ist. Abhilfe schafft es hier das PPA ppa:sunab/kdenlive-svn zu benutzen und in der Konsole ein:

    sudo apt-get install --reinstall kdenlive

    einzugeben. Anschließend funktioniert Kdenlive wieder ohne Probleme.

    Weitere Informationen gibt es unter:
    https://launchpad.net/~sunab/+archive/kdenlive-svn
    http://www.kdenlive.org/mantis/view.php?id=2288
    http://www.kdenlive.org/forum/mlts-sdl-module-not-found-0
    http://www.kdenlive.org/forum/kdenlive-not-starting-after-installation

    17. Oktober 2011

    Taskwarrior ist ja in der Lage über verschiedene Protokolle (SSH, rsync, ...) die Aufgaben abzugleichen. Ich verwende hierfür mein Lieblingsprotokoll, welches natürlich SSH ist.

    Leider hat mich mein Internet Service Provider, die Bundesregierung und noch einige andere Organisationen nicht sonderlich lieb, und deshalb habe ich nur relativ wenig Bandbreite.

    Dennoch möchte ich in der Firma, auf dem Server und auch am Desktop die gleichen Aufgaben haben. Ein reiner Online Zugang (einfach nur SSH zum Server) ist in der Firma ja nicht möglich, und auch sonst ist ein Offline Zugang sehr praktisch.

    Aus diesem Grund darf Taskwarrior bei mir direkt mit dem Server abgleichen, von da aus hol ich das an alle möglichen (oder nötigen) Clients. Mit der Zeit wird aber die ~/.task/undo.data zunehmen größer, und genau diese ist ja für das Abgleichen mit task merge zwingend erforderlich.

    Für diese Anwendung hilft daher die gute alte Kompression von SSH, welche in der Datei ~/.ssh/config wie folgt für den Zielrechner aktiviert werden kann:

    Host yourhostname
     Compression yes
     ...

    Optimal wäre natürlich eine Lösung bei der nur Taskwarrior die Kompression verwendet, aber mit dieser Überganglösung bis taskd kommt kann ich auch Leben. Die Nachteile der SSH Kompression stehen übrigens in der Manpage von SSH, ich werde also nicht darauf eingehen ;-)

    Wenn die undo.data etwas länger wird sollte man diese aber ab und an kürzen, ein zuvor angelegtes Backup schützt nicht nur in diesem Fall vor Problemen.