ubuntuusers.de

🛈 Aktuell gibt es im Wiki ca. 430 Artikel, die nur für Xenial getestet sind. Dies entspricht ca. 5,5 % aller Wikiartikel. Damit diese im nächsten Frühjahr nicht alle archiviert werden müssen, ist eure Mithilfe gefragt!

29. April 2016

Nach Jahren des Wartens wird seit Firefox 46 endlich standardmäßig Gtk3 als Toolkit benutzt. Dadurch passt sich Firefox besser an moderne Oberflächen an und benutzt z.B. die integrierten Scrollbars von Gtk3. Zusätzlich scheint Firefox ein wenig performanter in der Grafikdarstellung geworden zu sein, wobei das ein rein subjektiver Eindruck meinerseits ist.

Neben dem offiziellen Paket von der Mozilla-Seite wird in allen noch unterstützten Ubuntu-Versionen (14.04, 15.10 & 16.04) Firefox 46 ebenfalls als Gtk3-Build ausgeliefert.

Leider hat es die Multiprozess-Architektur noch nicht in Firefox 46 geschafft. Diese soll ab Version 48 dann für alle Benutzer aktiviert werden.

28. April 2016

Aus dem Blogpost zum Wallpaper von Ubuntu 16.04:

Our Suru language is influenced by the minimalist nature of Japanese culture. We have taken elements of their Zen culture that give us a precise yet simplistic rhythm and used it in our designs. Working with paper metaphors we have drawn inspiration from the art of origami that provides us with a solid and tangible foundation to work from. Paper is also transferable, meaning it can be used in all areas of our brand in two and three dimensional forms.

Und was ist aus diesem hochintellektuellen Designansatz am Ende geworden? Das:

Lila-braune geometrische Formen, hübsch präsentiert mit Kompressionsartefakten.

Seit dem Lila-Redesign hat Ubuntu kein schönes oder auch nur interessantes Hintergrundbild mehr hinbekommen. Es wurde ein bisschen besser, es sieht nicht mehr wie Hingekotztes aus (keine Übertreibung, das erste Hintergrundbild nach neuer visueller Richtlinie weckte bei einigen diese Assoziation), aber es ist immer absolut langweilig. Schön auch im Blogpost an den Hintergrundbildern der letzten Jahre zu sehen; es ist einfach immer eine leicht andere Variation von lila-braun plus geometrischen Formen. Das kann man hochstilisieren zum Feng-Shui-Zen der japanischen Hochkultur, dafür muss man aber schon Kunststudent und ziemlich bekifft sein. Für alle anderen ist klar: Da hat ein Designteam weder Mut noch Ideen noch Talent.

Die Tage geisterten mehrere Artikel über Franz durch das Netz. (z.B. t3n)
Das Tool des österreichischen Designers Stefan Malzner vereint momentan 14 Messenger Systeme unter einem Hut.
Die bekannteren konnten bereits der Überschrift entnommen werden, dazu gesellen sich Telegram, HipChat, GroupMe, Grape, Gitter, WeChat, Hangouts, ChatWork, Discord und Steam Chat.

franz-logo

Franz - Kommunikationszentrale

Im ersten Moment klingt dies nach einer eierlegenden Wollmilchsau, muss aber von anderen Messengern klar getrennt werden.
Denn Franz vereint nur Dienste, welche einen Webservice zur Verfügung stellen.
So wird beispielweise für Whatsapp der bekannte QR Code eingeblendet. Das ist natürlich nicht schön, aber dafür kann Franz natürlich Nichts.

Als Anlaufstelle für die täglichen Chats bietet sich das Programm durchaus an.

Dafür bietet Franz ein Paket für Linux an, was wiederum sehr löblich ist.
Dieses lässt sich einfach herunterladen und ist nach dem Entpacken sofort startbereit


wget http://downloads.meetfranz.com/releases/0.9.10/Franz-linux-ia32-0.9.10.tgz
tar xvf Franz*
./Franz

franz

Gibt es Alternativen?

Klar gibt es für Linux Alternativen, beispielsweise existiert Skype for Linux oder Whatsie.
Allerdings haben diese Varianten ihrerseits durchaus ein paar Probleme oder werden vom Hersteller gesperrt (siehe Whatsup und Co).

Für Facebook wäre eventuell der  Messenger for Desktop zu erwähnen, welches ebenso einen alternativen Client stellt.

Die Installation der Alternativen geht ähnlich einfach von der Hand, hier ein paar Beispiele.

Installation Whatsie

sudo apt-key adv --keyserver pool.sks-keyservers.net --recv-keys 1537994D
sudo sh -c 'echo "deb http://dl.bintray.com/aluxian/deb stable main" >> /etc/apt/sources.list.d/whatsie.list'
sudo apt update
sudo apt install whatsie

Installation Skype for Linux

sudo add-apt-repository "deb http://archive.canonical.com/ $(lsb_release -sc) partner"
sudo dpkg --add-architecture i386
sudo apt-get update
sudo apt-get install skype

WhatsApp-Web


Fazit

Franz bietet mit der zentralen Messenger Verwaltung eine praktische Sammelstelle für Nachrichten Junkies. Durch die Auflistung webbasierter Anwendung bleibt Franz wohl in Zukunft leicht zu betreuen und hat somit gegenüber Anwendungen wie Whatsie sicherlich einen Vorteil.
OpenSource Clients sind immer von der Gunst des Anbieters abhängig.

Da ich eigentlich nur ein bis zwei Messenger verwende und diese noch nicht unterstützt werden, ist Franz für mich allerdings kaum eine Option. Für die Facebook, WhatsApp Generation sieht es da sicherlich anders aus.

Ich frage mich eher, warum  ICQ nicht dabei ist, das ist doch wieder da :)

Heute zeige ich Euch, wie Ihr auf einem Ubuntu 14.04 Server die aktuelle Version 9 von ownCloud auf Eurem Server installiert.

Ich werde das Ganze über die Linux Konsole durchführen. Habt Ihr keinen SSH-Zugang, könnt Ihr das Ganze natürlich auch über FTP hochladen.

Für die Installation benötigt Ihr Webspeicherplatz und eine Datenbank. Für die Einrichtung, verwende ich folgenden Pfad „/var/www/virtual/wolke.pirates-of-art.de/htdocs“.

Vorbereitung

Als erstes benötigen wir ein temporäres Verzeichnis für die Installationspakete. Dieses befindet sich bei mir unter „/var/www/virtual/wolke-pirates-of-art.de/00_private“ und liegt somit außerhalb des erreichbaren Webverzeichnisses.

In dieses Verzeichnis laden wir uns die aktuelle Version von ownCloud herunter:
wget http://download.owncloud.org/download/repositories/stable/Ubuntu_14.10/owncloud-files_9.0.1.orig.tar.gz

Weitere Versionen findet Ihr hier.

Anschließend entpacken wir diese mit
tar -xzf owncloud-files_9.0.1.orig.tar.gz
und wechseln in das entpackte Verzeichnis
cd owncloud

Nun verschieben wir den kompletten Inhalt in das Webverzeichnis
mv * ../../htdocs
Leider werden hierbei die versteckten Dateien wie „.htaccess“ ignoriert. Diese verschieben wir mit
mv .* ../../htdocs
Dies erzeugt eine Fehlermeldung, da er versucht die Ordnerebene (. ..) mit zu verschieben.
mv: cannot move ‘.’ to ‘/var/www/virtual/wolke.pirates-of-art.de/htdocss/.’: Device or resource busy
mv: cannot move ‘..’ to ‘/var/www/virtual/wolke.pirates-of-art.de/htdocs/..’: Device or resource busy

Diese können wir aber getrost ignorieren. Es gibt zwar eine Möglichkeit das Ganze mit regulären Ausdrücken zu umgehen, aber das ist die Mühe nicht wert und lohnt sich m.E. nur in sich wiederholenden Aufgaben wie Skripten.

Anschließend wechseln wir in das Webverzeichnis
cd /var/www/virtual/wolke.pirates-of-art.de/htdocs
und passen hier noch die Benutzerrechte an.
chown -R user:gruppe *
Auch hier mit den versteckten Dateien wie bei „mv“
chown -R user:gruppe .*

 

Installation

Jetzt sind die Vorarbeiten abgeschlossen und wir wechseln in den Browser und rufen unsere Domain auf
http://wolke.pirates-of-art.de

owncloud01

Auf der Installationsseite müssen nun folgende Angaben gemacht werden:

Administrator-Konto: Wählt hier Euren Benutzernamen und vergebt bitte, Euren Daten zuliebe, ein starkes Kennwort.
Datenverzeichnis: Hierbei handelt es sich um das Installationsverzeichnis und ist bereits ausgefüllt
Datenbank einrichten: Angabe des Datenbankbenutzers, der Datenbank und die Zugriffsbeschränkung auf „localhost“

Das war bereits die komplette Installation.

Konfiguration

Anschließend befindet Ihr Euch direkt in der ownCloud Weboberfläche. Dort wechseln wir rechts oben auf den „Benutzernamen / Administrator“

Bitte beachtet die Warnhinweise unter „Sicherheits- & Einrichtungswarnungen“

owncloud04

Bei mir tauchen jetzt hier die Warnung bezüglich der Verwendung von HTTP auf. Dies ist mir bewusst und wird noch wurde inzwischen behoben. Hierzu müsst Ihr in eurer vHost-Konfiguration eine Weiterleitung konfigurieren.

Der Hinweis auf keinen konfigurierten Memory Cache ist für kleinere Installation unnötig. Dies wird erst bei vielen Benutzern und großen Datenmengen interessant.

Das Logfile sollte Ihr Euch auf jeden Fall anschauen ob hier noch Fehler auftauchen. Dies war bei mir nun nicht der Fall.

 

Als nächsten Schritt aktivieren wir die Verschlüsselung der Dateien. Hierzu wechseln wir links oben im Menu auf „Apps / nicht aktiviert“ und aktivieren das Modul „Default encryption module“

owncloud05

Nach ein paar Sekunden erscheint dann die Meldung „Verschlüsselung-App ist aktiviert, aber Ihre Schlüssel sind nicht initialisiert. Bitte nochmals ab- und wieder anmelden.“ Dieser Aufforderung kommen wir nach und loggen uns neu ein.

owncloud06

Anschließend wechseln wir rechts oben wieder auf den „Benutzernamen / Administrator“ und links auf „Serverseitige Verschlüsselung“.

Dort müssen wir noch den „Wiederherstellungsschlüssel aktivieren“. Bitte hinterlegt diesen Schlüssel an einer unzugänglichen Stellen. Ohne diesen ist eine Wiederherstellung nicht mehr möglich.

owncloud07

Somit ist die Einrichtung abgeschlossen. Hier nochmal ein paar ernste Hinweise:

  • Verwendet in jedem Fall die Verschlüsselung. Ansonsten hat jeder ohne weiteres auf die Daten Zugriff, der einen Konsolenzugang auf den Server hat.
  • Hebt den Schlüssel gut auf, solltet Ihr diesen verlieren und keinen Zugriff mehr auf Eure ownCloud Installation haben, sind Eure Daten verloren.
  • Führt regelmäßige Sicherungen durch, falls aus irgendeinem Grund auf die Daten nicht mehr zugegriffen werden kann.
  • Setzt auf starke Passwörter
  • Verwendet für Eure Dateien niemals Euren Administrator, sondern legt euch einen zusätzlichen Benutzer an.

Klar soweit …

Euer RSB

27. April 2016

Vor ziemlich genau einer Woche wurde Ubuntu 16.04 „Xenial Xerus“ veröffentlicht. Am Wochenende kam ich endlich dazu mir die KDE 64-bit Version zu installieren. Im Großen und Ganzen gefällt mir das Release und ich mag besonders KDE SC 5. Leider, wie es erwartbar war gibt es auch bei diesem Release Kleinigkeiten die das Arbeiten damit ein bisschen weniger wundervoll erscheinen lassen. Es sind keine ernsten Bugs welche die Arbeit komplett verunmöglichen sondern wenn-das-ein-bisschen-anders-wäre-dann-wäre-es-perfekt. Ein bisschen nervig aber nicht schlimm. „Papercuts“ eben.

Um möglichst wenig Altlasten mitzuschleppen und Bugs die daraus resultieren können aus dem Weg zu gehen habe ich soweit möglich darauf verzichtet alte Konfigurationsdateien mitzuschleppen. Nach einem umfassenden Backup habe ich meine Festplatten formatiert und nur meine Dateien zurück kopiert. Dadurch sollte ausgeschlossen sein, dass etwaige Fehlfunktionen auf Grund von veralteten Einstellungen auftreten. Gleich beim ersten Programm jedoch sind Daten und Einstellungen nur gemischt verfügbar.

Thunderbirds Disappearing eMail Trick

Ich verwende Thunderbird seit meiner Zeit unter Windows (Kinder, lasst mich erzählen …) und muss hier natürlich damit rechnen, dass obsolete Einstellungen herumlungern um mir den Tag zu vermiesen. Bis jetzt hatte Thunderbird meine Umzüge jedoch immer anstandslos überstanden. Seitdem ich Xenial aufgesetzt hatte weigerte es sich die Ordner und eMails meiner nicht-IMAP-Konten anzuzeigen. Im Verzeichnis  „~/.thunderbird/<profil>/Mail/Local Folders/“ lagen zwar die fraglichen Dateien und ihr Inhalt war auch noch vorhanden, jedoch zeigte mir das laufende Programm nur Leere unter „Lokale Ordner“.

Da ich hier mehrere tausend eMails gesammelt und eine recht große Ordner- wie Filterstruktur laufen hatte konnte ich dieses Problem nicht ignorieren. Ich suchte im Web nach Lösungen für das Problem, fand jedoch nichts das mir half meine Ordner wiederherzustellen. Mehrmals spielte ich mich mit Einstellungen und versuchte Konfigurationen manuell zu bearbeiten. Nichts. Um sicher zu gehen legte ich einen neuen Ordner im leeren Postfach an und legte eine eMail meines nigerianischen Traumprinzen darin ab. Nachdem ich Thunderbird beendet hatte untersuchte ich das oben genannte Verzeichnis nach dem neu angelegten Ordner. Er war nicht zu finden. Nach einem erneuten Start der Anwendung waren der Ordner und die eMail jedoch vorhanden. Merkwürdig.

Zufälligerweise fiel gestern mein Blick auf eine Pfadangabe zu einem der POP3-Konten. Diese Pfadangabe wird in der Standardansicht gekürzt dargestellt, weil das Fenster relativ klein ist. Die Darstellung entspricht in etwa dem Muster „/home/user/.../pop3.gmx.net„. (Ja, mein GMX-Konto ist auch eine Altlast.) Weil mich der komplette Pfad interessierte zog ich das Fenster in die Breite. Voila:
/home/user/.icedove/Mail/Local Folders/pop3.gmx.net„.

Hierzu zwei kurze Erklärungen. Erstens der Mozilla-Debian-Namensstreit. Das Debian-Projekt ist bekannt für die Stabilität seiner Distributionen und seiner Eignung als Serverbetriebssystem. Das resultiert aus einer Regel des Projektes, welche besagt, dass es nach einem Release nur kleine (Sicherheits-)Korrekturen für die vorhandenen Programme gibt, keine Upgrades der Major-Version (soll heißen: Firefox 33 bleibt über den gesamten Supportzeitraum Firefox 33).

Der Support-Zeitraum einer Debian-Distribution ist meist etwa 3 Jahre. Das ist länger als der Supportzeitraum den Mozilla, sogar noch bevor sie auf 6-wöchige Releases für Firefox umgestiegen sind, für Firefox und Thunderbird gewährleistet hat. Um zu verhindern, dass ihre Nutzer mit einer Firefox-Version im Web surfen, welche einen Haufen bekannter Sicherheitslücken aufweist gingen die Debian-Maintainer her und nahmen Security-Patches für spätere Firefox-Versionen und wandten sie auf die jeweils im Release verfügbare an. Ein Patch für Version 38, der von Mozilla nicht offiziell für Version 33 zur Verfügung gestellt wurde, wurde von Debian also auf Version 33 angewandt um die Lücke zu schließen. Laut den Lizenzregeln von Mozilla war das eine nicht authorisierte Veränderung von Firefox. Bezüglich des Codes war das kein Problem, jedoch der Name „Firefox“ und dessen Logo durften mit einer solchen angepassten Version nicht verwendet werden. Also ging Debian her und benannte diese angepasste Version von Firefox um in „Iceweasel“.  Thunderbird wurde zu „Icedove“. Debian 8 sollte die letzte Debian Distribution sein, welche diese Umbenennung durchführt. Seit dessen Erscheinen hat Mozilla seine Richtlinien geändert, sodass Debian 9 wieder offiziell Firefox und Thunderbird ausliefern kann.

Zweitens habe ich, kurz nach erscheinen von Debian 8, dieses für ein paar Wochen ausprobiert. In dieser Zeit habe ich natürlich Icedove verwendet um meine eMails zu verwalten. Danach habe ich wegen diverser Probleme wieder auf Kubuntu 14.04 und schließlich 16.04 umgestellt. Ich kann mich nicht erinnern, dass dieses Problem unter 14.04 ebenfalls aufgetreten wäre.

Scheinbar macht meine Konfiguration Thunderbird glauben, es sei Icedove. Sobald Thunderbird unter 16.04 das erste Mal gestartet wurde hat es sich das Verzeichnis „~/.icedove“ angelegt. In dieses hat es sich interessanter Weise die Konfiguration (und den exakt selben Profilnamen wie meine Thunderbird-Installation) geladen. Meine IMAP-Konten hat es abgerufen, meine POP3-Konten komplett ignoriert. Jegliche Änderungen an der Thunderbird-Installation waren natürlich wirkungslos weil Thunderbird nur in seinem Icedove-Verzeichnis gearbeitet hat.

Lösung

Erfolg hatte ich nachdem ich das Icedove-Verzeichnis gelöscht und einen symbolischen Link zum Thunderbird-Verzeichnis gesetzt hatte:

rm -f ~/.icedove
ln -s ~/.thunderbird ~/.icedove

Wenn Thunderbird nun nach seinem Icedove-Verzeichnis sucht wird es automatisch in das Thunderbird-Verzeichnis umgeschleust.

Akregators Disappearing Message Trick

Akregator ist ein recht guter RSS-Feed-Reader, dessen Entwicklung leider in der Vergangenheit etwas eingeschlafen ist. Laurent Montel hat in den letzten paar Monaten daran gearbeitet die gesamte KDEPIM, zu der Akregator gehört auf eine moderne Qt-Version zu portieren. Da ich Akregator sehr gerne verwende bin ich ihm dafür recht dankbar. Dass Akregator innerhalb von ein paar Monaten vollständig fehlerfrei sein wird habe ich daher auch nicht erwartet. Ein bestimmtes Verhalten des aktuellen Akregators hat es allerdings in sich. Stellt man den Anzeigefilter auf „Ungelesen“ und die Zeit, ab welcher eine ausgewählte Nachricht als „gelesen“ markiert werden soll auf 0 (Voreinstellung), dann „verschwinden“ alle ungelesenen Nachrichten des Feeds innerhalb kürzester Zeit. Der Grund dafür ist: sobald eine Nachricht als gelesen markiert wird verschwindet sie aus der angezeigten Liste und die nächste Nachricht wird markiert. Das kaskadiert dann solange bis es keine ungelesenen Nachrichten mehr gibt. Natürlich kann man den Anzeigefilter auf „Alle Artikel“ stellen. Ich habe aber zeitweise recht alte ungelesene Nachrichten aus diversen Feeds (z.B. von Planeten), welche dann in der Menge untergehen würden. Auch das höherstellen der Zeit, die Akregator wartet um die Nachricht auf „gelesen“ zu setzen ist keine Lösung, da ich für das Lesen von verschiedenen Nachrichten auch unterschiedlch lange brauche. Bei vorangegangenen Akregator-Installationen war es so, dass die Liste der angezeigten Nachrichten nicht immer sofort bereinigt wurde. Dadurch hatte man Zeit die Nachrichten zu lesen, auch wenn sie bereits als „gelesen“ markiert waren, da sie immer noch in der Liste aufschienen.

Lösung

Man kann das automatische als „gelesen“ Markieren deaktivieren. Danach kann man Nachrichten mit der Tastenkombination [strg]+[e] einzeln als gelesen markieren. Möchte man einen ganzen Feed als gelesen markieren kann man das mit der Kombination [strg]+[r].

Plasma Comics Disappearing Arrow Trick

Ich verwende das Comic-Plasmoid für eine Reihe an Webcomics (XKCD, Ctrl-Alt-Del, …) weil ich nicht permanent die ganzen Seiten aufrufen möchte. Unter 16.04 hat dieses das eigenartige Verhalten, dass die eingeblendete Pfeile zum Navigieren in den einzelnen Seiten eines Comics verschwinden, sobald man sie anklickt. Das führt dazu, dass man dann auch nicht zum nächsten oder vorherigen Comic gelangt, wodurch die Pfeile an sich nutzlos werden.

Lösung

Man kann in den Einstellungen des Plasmoids unter „Erscheinungsbild“ den Punkt „Pfeile nur bei Mauskontakt zeigen“ deaktivieren. Dadurch werden die Pfeile konstant angezeigt und funktionieren wieder. Ich habe es lieber, wenn sie nicht die ganze Zeit angezeigt werden, aber es ist ein funktionierender Workaround.

Schlusswort

Bis jetzt hatte ich noch nicht die Zeit diese Probleme bei ihren jeweiligen Bugtrackern zu melden. Sobald ich dazu komme verlinke ich sie hier.

=-=-=-=-=
Powered by Blogilo

26. April 2016

Wir haben uns tatsächlich dieses Jahr wieder getroffen. Es ist natürlich ganz was anderes, zu einem Treffen mit dir bekannten Leuten zu fahren, als ins große Unbekannte aufzubrechen. Diesmal war es also ein Wiedersehen und dieses sehr angenehm, und dass es nett sein würde diesmal Bernd dabeizuhaben war ja auch vorher klar.

Wir haben es wieder geschafft eine ganze Weile strukturiert zu arbeiten. Einige Zeit ist in die neue Webseite geflossen, die nun wohl bald die alte ersetzen kann – im Grunde fehlt nur noch eine Aktualisierung der Downloadseite. Außerdem war das Treffen die Gelegenheit, Serendipity 2.1 zu besprechen. Dabei konnten wir einige Issues lösen und für die anderen ist nun größtenteils klar was getan werden muss. Mit der Unterstützung von PHP 7 ist da aber noch ein großer Brocken aus dem Weg zu räumen. Und mit dem UTF-8-Bug sind wir wieder einmal in eine große MySQL-Stolperfalle gelaufen, das wird auch noch haarig und vielleicht etwas für später. Ganz anderen Charakter hatte dann die Arbeit an der Projektinfrastruktur und damit am Wunsch, Garvin zu entlasten und in der Zukunft Probleme zu vermeiden. Auch Thema: Wie wir im Projekt miteinander arbeiten und umgehen wollen. Das ist was positives, dazu später mehr.

Das Bild ist auf dem Rückweg nach Paris geschossen.

Weitere Berichte gibt es bei Bernd und bei Matthias.

Wie ich in einem vorherigen Beitrag ja bereits erwähnt hatte, ist eine (Software-) Firewall ein wichtiges Werkzeug, mit dem die Sicherheit eines Linux Servers erhöht werden kann. Problematisch sind aber Dienste, die generell für alle aus dem Internet verfügbar sein müssen, wie beispielsweise Mail- und Web-Dienste. Oft kann ein Angreifer tage- oder gar wochenlang automatisiert und systematisch Passwörter für beispielsweise einen SSH Zugang oder ein E-Mail Konto durchprobieren. Abhilfe schafft hier Fail2Ban, welches nach fehlerhaften Anmeldeversuchen in Log-Dateien sucht und bei einem Fund die entsprechende IP Adresse mit Hilfe der Firewall sperrt.

Installation

Unter Debian 8 Jessie ist die Installation leicht und es sind bereits ebenfalls viele nützliche Filter vorhanden:

# Installation
apt-get install fail2ban
# In das Konfigurationsverzeichnis wechseln
cd /etc/fail2ban
# Die Standard-Konfiguration jail.conf studieren
vim jail.conf
# oder mit more 
more jail.conf 
# jail.local für eigene Einstellungen im nächsten Schritt anlegen
touch jail.local

Konfiguration

Die Standard-Konfigurationsdatei jail.conf sollte aufgrund späterer Paketaktualisierungen nicht verändert werden, stattdessen wird eine jail.local angelegt, in der Parameter überschrieben und neue hinzugefügt werden können. Meine jail.local auf dem Mail-Server sieht so aus:

[DEFAULT]
ignoreip = 127.0.0.1/8
bantime  = 86400
findtime = 600
maxretry = 3

[ssh-ddos]
enabled  = true
port     = ssh
filter   = sshd-ddos
logpath  = /var/log/auth.log
maxretry = 6

[postfix]
enabled  = true
port     = smtp,ssmtp,submission
filter   = postfix
logpath  = /var/log/mail.log

[dovecot]
enabled = true
port    = smtp,ssmtp,submission,imap2,imap3,imaps,pop3,pop3s
filter  = dovecot
logpath = /var/log/mail.log

Roundcube und Apache Filter

Wenn in 10 Minuten (findtime) 3 Zeilen mit fehlerhaften Login (maxretry) gefunden wurden, wird die entsprechende IP Adresse für einen Tag (bantime) blockiert. Auf dem Webserver verwende ich andere Regeln, u.a.:

[roundcube-auth]
enabled  = true
filter   = roundcube-auth
port     = http,https
logpath  = /var/log/apache2/webmail.pimux.de_access.log

[apache]
enabled  = true
port     = http,https
filter   = apache-auth
logpath  = /var/log/apache*/*error.log
maxretry = 6

Die Webmail Anwendung Roundcube läuft bei mir nicht auf dem Mail-, sondern auf dem etwas schnelleren Webserver, weshalb ich diese Regel an dieser Stelle verwende.

WordPress Filter

Auch für WordPress lässt sich ein Filter implementieren, allerdings ist die Log-Datei des Webservers nicht aussagekräftig genug. Deswegen muss für die jeweilige WordPress Installation noch das Plugin WP fail2ban installiert werden. Anschließend müssen die Zwei Filter-Dateien noch nach in das Fail2Ban Verzeichnis kopiert werden:

# Pfad zur Wordpress Installation muss natürlich entsprechend angepasst werden
cp /var/www/wordpress/wp-content/plugins/wp-fail2ban/wordpress-*.conf /etc/fail2ban/filter.d/

Nun müssen die Filter noch in der jail.local aktiviert werden:

[wordpress-hard]
enabled  = true
filter   = wordpress-hard
logpath  = /var/log/auth.log
port     = http,https
maxretry = 1

[wordpress-soft]
enabled  = true
filter   = wordpress-soft
logpath  = /var/log/auth.log
port     = http,https
maxretry = 3

Bedienung

Für die Bedienung von Fail2Ban kommt man mit wenigen Kommandos gut zurecht:

# Jails anzeigen
fail2ban-client status
# Den Status des Postfix Jails anzeigen (u.a. gesperrte IPs anzeigen)
fail2ban-client status postfix
# Eine IP des Postfix Jails entsperren
fail2ban-client set postfix unbanip 192.168.1.23

Wenn die Konfiguration erledigt ist, muss Fail2Ban noch einmal mit 

systemctl restart fail2ban
  neugestartet werden. Funde und Sperrungen kann man in der 
/var/log/fail2ban.log
  finden.

Die Dominanz von Windows auf dem Markt für Betriebssysteme schien lange wie in Stein gemeißelt. Weder technische Unzulänglichkeiten, noch Virenepidemien oder Wettbewerbsverfahren konnten dem Giganten Microsoft etwas anhaben. Lediglich Apple bekam mit OS X ein kleines Stück vom Kuchen ab und in der Mini-Nische fand sich Linux - das ewige Betriebssystem in Lauerstellung.

Diese Marktaufteilung wurde durch den Siegeszug mobiler Betriebssysteme in den letzten Jahren gründlich durchgerüttelt. Microsoft hat es trotz des Einsatzes großer finanzieller Mittel nicht geschafft, seine Dominanz im Desktopbereich auf den mobilen Markt zu übertragen. Dort dominiert das Linux-Derivat Android und iOS von Apple - Windows Phone kommt allenfalls auf Marktanteile im niedrigen einstelligen Prozentbereich. (Siehe zu den Marktanteilen z.B. die Zahlen von Netmarketshare)

Genau in jenem Bereich ist auch nach wie vor Linux auf dem Desktop angesiedelt. Dabei hatte es in den vergangenen Jahren seinen zweiten medialen Aufmerksamkeitsschub erfahren. Den ersten gab es vor gut 10 Jahren mit dem Aufkommen der Netbooks, auf denen Windows Vista nur unzureichend lief. Dieser wurde jedoch damals ziemlich schnell durch den verlängerten Supportzeitraum von Windows XP wieder beendet. Die zweite Welle der Aufmerksamkeit erfuhr Linux nach der NSA-Affäre, als das Ausmaß der geheimdienstlichen Überwachung bekannt wurde und eine Kooperation zwischen IT-Industrie und Geheimdiensten nahe legten. Linux schien hier als einzige, sichere Alternative zu bestehen.

Seit dem Sommer 2013 haben Datensicherheit und Verschlüsselung viel mediale Aufmerksamkeit erfahren. Verschlüsselung ist kein Nischenthema mehr, sondern Entwicklungen in diesem Bereich erfreuen sich einer großen medialen Resonanz und schreiten rasant vorwärts. Die mobilen Betriebssysteme haben in diesem Bereich unglaubliche Fortschritte gemacht. Auch wenn Android von Haus aus immer noch unverschlüsselt ist, nutzen heute sehr viele Menschen mobile Geräte, die durch umfangreiche Verschlüsselungsmaßnahmen geschützt werden.

Ganz anders sieht das immer noch auf dem Desktop aus. Ein normales Windows-Gerät für Endverbrauer (Home/Home Premium) hat lediglich einen Alibi-Passwortschutz, der sich leicht umgehen lässt und auch OS X ist standardmäßig nicht verschlüsselt. Während die Anwender des Betriebssystems aus Cupertino mit FileVault 2 immerhin eine probate Verschlüsselungsmöglichkeit besitzen, lässt Microsoft Windows-Anwender ziemlich alleine. BitLocker ist erst ab den Professional-Versionen enthalten (bei Windows 7, sogar erst in Ultimate) und Alternativen wie TrueCrypt/VeraCrypt funktionieren auf neuerer UEFI-Hardware noch nicht zuverlässig.

Vollkommen unberührt von diesem Aspekt ist zudem die Erhebung von Nutzerdaten durch das Betriebssystem und darauf laufender Programme, die durch den Nutzer nicht oder nur ungenügend kontrolliert werden kann (z.B. bei Windows 10).

Genau an diesem Punkt hätte Linux auf dem Desktop seine Zielgruppe ein wenig vergrößern können. Linux galt schon immer als sicheres Betriebssystem - jedenfalls was Trojaner und andere Schädlinge betraf. Linux hätte nun auch ein objektiv sicheres Betriebssystem für Datensicherheit/-schutz werden können. Die nötigen Bestandteile sind im Prinzip alle vorhanden. Es gibt ausgereifte Verschlüsselungsmöglichkeiten wie das Betriebssystem (dm-crypt/LUKS), die Benutzerdaten (eCryptFS), implementierte Standardverfahren für Kommunikation (S/MIME / OpenPGP / OTR) und eine zentrale Paketverwaltung, über die ausgelieferte Software kontrolliert werden kann. Sogar Tor ist in den Paketquellen vieler Distributionen eigentlich enthalten.

Doch dieses Potenzial wird - man möchte sagen "mal wieder" - nicht genutzt. Viele Distributionen bieten in ihren Installationsroutinen keine Möglichkeit zur Verschlüsselung oder verstecken diese gut vor dem Anwender, Nachrichtenverschlüsselung muss genau so mühsam wie unter OS X und Windows eingerichtet werden und Programme erheben Nutzungsdaten ganz nach belieben.

Absurderweise gibt es für die Verweigerung vorhandene, erprobte und sichere Verfahren von Haus aus zu aktivieren keine nachvollziehbaren Gründe. Das Fehlen von BitLocker in Windows 10 unterhalb Pro / Windows 7 unterhalb von Ultimate mag noch Sinn ergeben, immerhin muss Microsoft Lizenzen für die teureren Versionen verkaufen und ihren Nutzen rechtfertigen.

Freiheit bedeutet für viele Linux-Entwickler aber wohl immer noch endlose Debatten über Lizenzen (siehe beispielsweise jetzt anlässlich der Aufnahme von ZFS in Ubuntu) und irgendwelche binären Firmware-Blobs (von denen natürlich auch Bedrohung ausgehen kann), als die wirklich reale Freiheit vor Überwachung, die immer mehr zu einem Problem wird. Daneben verzettelt man sich lieber im dritten Fork und der vierten Parallelentwicklung, was natürlich auch begrenzte Entwicklerressourcen bindet.

Linux-Distributionen sind immer noch Betriebssysteme, mit denen man viele Möglichkeiten hat seine Daten zu schützen, wenngleich sie natürlich nicht absolut sicher sind. Sie bleiben aber Baukästen, aus denen erfahrene Anwender sich die notwendigen Bestandteile für ein sicheres Betriebssystem auswählen können. Massentauglichkeit sieht anders aus. Das ist bedauerlich für Linux und noch viel bedauerlicher für das Thema Datensicherheit.

Die Dominanz von Windows auf dem Markt für Betriebssysteme schien lange wie in Stein gemeißelt. Weder technische Unzulänglichkeiten, noch Virenepidemien oder Wettbewerbsverfahren konnten dem Giganten Microsoft etwas anhaben. Lediglich Apple bekam mit OS X ein kleines Stück vom Kuchen ab und in der Mini-Nische fand sich Linux - das ewige Betriebssystem in Lauerstellung.

Diese Marktaufteilung wurde durch den Siegeszug mobiler Betriebssysteme in den letzten Jahren gründlich durchgerüttelt. Microsoft hat es trotz des Einsatzes großer finanzieller Mittel nicht geschafft, seine Dominanz im Desktopbereich auf den mobilen Markt zu übertragen. Dort dominiert das Linux-Derivat Android und iOS von Apple - Windows Phone kommt allenfalls auf Marktanteile im niedrigen einstelligen Prozentbereich. (Siehe zu den Marktanteilen z.B. die Zahlen von Netmarketshare)

Genau in jenem Bereich ist auch nach wie vor Linux auf dem Desktop angesiedelt. Dabei hatte es in den vergangenen Jahren seinen zweiten medialen Aufmerksamkeitsschub erfahren. Den ersten gab es vor gut 10 Jahren mit dem Aufkommen der Netbooks, auf denen Windows Vista nur unzureichend lief. Dieser wurde jedoch damals ziemlich schnell durch den verlängerten Supportzeitraum von Windows XP wieder beendet. Die zweite Welle der Aufmerksamkeit erfuhr Linux nach der NSA-Affäre, als das Ausmaß der geheimdienstlichen Überwachung bekannt wurde und eine Kooperation zwischen IT-Industrie und Geheimdiensten nahe legten. Linux schien hier als einzige, sichere Alternative zu bestehen.

Seit dem Sommer 2013 haben Datensicherheit und Verschlüsselung viel mediale Aufmerksamkeit erfahren. Verschlüsselung ist kein Nischenthema mehr, sondern Entwicklungen in diesem Bereich erfreuen sich einer großen medialen Resonanz und schreiten rasant vorwärts. Die mobilen Betriebssysteme haben in diesem Bereich unglaubliche Fortschritte gemacht. Auch wenn Android von Haus aus immer noch unverschlüsselt ist, nutzen heute sehr viele Menschen mobile Geräte, die durch umfangreiche Verschlüsselungsmaßnahmen geschützt werden.

Ganz anders sieht das immer noch auf dem Desktop aus. Ein normales Windows-Gerät für Endverbrauer (Home/Home Premium) hat lediglich einen Alibi-Passwortschutz, der sich leicht umgehen lässt und auch OS X ist standardmäßig nicht verschlüsselt. Während die Anwender des Betriebssystems aus Cupertino mit FileVault 2 immerhin eine probate Verschlüsselungsmöglichkeit besitzen, lässt Microsoft Windows-Anwender ziemlich alleine. BitLocker ist erst ab den Professional-Versionen enthalten (bei Windows 7, sogar erst in Ultimate) und Alternativen wie TrueCrypt/VeraCrypt funktionieren auf neuerer UEFI-Hardware noch nicht zuverlässig.

Vollkommen unberührt von diesem Aspekt ist zudem die Erhebung von Nutzerdaten durch das Betriebssystem und darauf laufender Programme, die durch den Nutzer nicht oder nur ungenügend kontrolliert werden kann (z.B. bei Windows 10).

Genau an diesem Punkt hätte Linux auf dem Desktop seine Zielgruppe ein wenig vergrößern können. Linux galt schon immer als sicheres Betriebssystem - jedenfalls was Trojaner und andere Schädlinge betraf. Linux hätte nun auch ein objektiv sicheres Betriebssystem für Datensicherheit/-schutz werden können. Die nötigen Bestandteile sind im Prinzip alle vorhanden. Es gibt ausgereifte Verschlüsselungsmöglichkeiten wie das Betriebssystem (dm-crypt/LUKS), die Benutzerdaten (eCryptFS), implementierte Standardverfahren für Kommunikation (S/MIME / OpenPGP / OTR) und eine zentrale Paketverwaltung, über die ausgelieferte Software kontrolliert werden kann. Sogar Tor ist in den Paketquellen vieler Distributionen eigentlich enthalten.

Doch dieses Potenzial wird - man möchte sagen "mal wieder" - nicht genutzt. Viele Distributionen bieten in ihren Installationsroutinen keine Möglichkeit zur Verschlüsselung oder verstecken diese gut vor dem Anwender, Nachrichtenverschlüsselung muss genau so mühsam wie unter OS X und Windows eingerichtet werden und Programme erheben Nutzungsdaten ganz nach belieben.

Absurderweise gibt es für die Verweigerung vorhandene, erprobte und sichere Verfahren von Haus aus zu aktivieren keine nachvollziehbaren Gründe. Das Fehlen von BitLocker in Windows 10 unterhalb Pro / Windows 7 unterhalb von Ultimate mag noch Sinn ergeben, immerhin muss Microsoft Lizenzen für die teureren Versionen verkaufen und ihren Nutzen rechtfertigen.

Freiheit bedeutet für viele Linux-Entwickler aber wohl immer noch endlose Debatten über Lizenzen (siehe beispielsweise jetzt anlässlich der Aufnahme von ZFS in Ubuntu) und irgendwelche binären Firmware-Blobs (von denen natürlich auch Bedrohung ausgehen kann), als die wirklich reale Freiheit vor Überwachung, die immer mehr zu einem Problem wird. Daneben verzettelt man sich lieber im dritten Fork und der vierten Parallelentwicklung, was natürlich auch begrenzte Entwicklerressourcen bindet.

Linux-Distributionen sind immer noch Betriebssysteme, mit denen man viele Möglichkeiten hat seine Daten zu schützen, wenngleich sie natürlich nicht absolut sicher sind. Sie bleiben aber Baukästen, aus denen erfahrene Anwender sich die notwendigen Bestandteile für ein sicheres Betriebssystem auswählen können. Massentauglichkeit sieht anders aus. Das ist bedauerlich für Linux und noch viel bedauerlicher für das Thema Datensicherheit.

Ubuntu MATE war schon in der Vergangenheit die interessanteste Alternative zu Raspbian, vor allem für alle jene Raspberry-Pi-Fans, die ihren Minicomputer auch als Desktop-Rechner verwenden möchten. Die Benutzeroberfläche von MATE ist entschieden eleganter als jene von Raspbian. Auch die Standard-Software-Ausstattung mit Firefox, Thunderbird und LibreOffice ist mehr für den Desktop-Einsatz optimiert.

Seit gestern steht das Image von Ubuntu MATE 16.04 für den Raspberry Pi zum Download zur Verfügung — Zeit also, um einen kurzen Blick auf diese spezielle Ubuntu-Variante zu werfen.

Beachten Sie, dass Ubuntu MATE nur auf dem Raspberry Pi 2 und 3 läuft, nicht aber auf den 1er-Modellen sowie auf dem Raspberry Pi Zero!

Der Desktop von Ubuntu MATE 16.04
Der Desktop von Ubuntu MATE 16.04

Image-Größe

Die Image-Datei der finalen Version von Ubuntu MATE 16.04 ist unglücklich gewählt: Sie beträgt ca. 8 GByte, ist aber gerade um ein paar MByte größer als viele handelsüblichen 8-GByte-Karten. Daher brauchen Sie eine 16-GByte-SD-Karte, um das Image vollständig übertragen zu können. Möglicherweise wird die Image-Datei beim nächsten Update nochmals ein wenig verkleinert — dann sollte auch eine 8-GByte-Karte für erste Tests ausreichen.

Welcome-Programm

Neu im Vergleich zu Ubuntu MATE 15.10 ist in der aktuellen Version vor allem das Welcome-Programm, das beim ersten Login automatisch gestartet wird. Das Programm kann auch mit System / Willkommen gestartet werden. Es soll über Ubuntu MATE informieren und bei den ersten Schritten in Ubuntu MATE helfen.

Begeistert hat mich das Konzept nicht: Das Programm ist unübersichtlich zu bedienen, manche Dialoge sind zudem für die Raspberry-Pi-Variante irrelevant (NVIDIA-Treiberinstallation etc.).

Dennoch gibt es einen Aspekt, der das Welcome-Programm auch für Raspberry-Pi-Anwender interessant macht: Sie können damit das Dateisystem an die Größe der SD-Karte anpassen. Anfänglich verwendet Ubuntu MATE nur die ersten 8 GByte der SD-Karte — egal, wie groß die Karte tatsächlich ist. Das liegt daran, dass die Partitionsgröße auf der Image-Datei festgelegt ist.

Um die gesamte SD-Karte nutzen zu können, müssen Sie die Root-Partition und das dort enthaltene Dateisystem vergrößern. Dazu klicken Sie im Startdialog des Welcome-Programms klicken Sie auf den Button Raspberry Pi Information und im nächsten Dialog auf Größe jetzt ändern. Danach müssen Sie Ubuntu MATE neu starten.

Das Welcome-Programm hilft dabei, das Dateisystem an die Größe der SD-Karte anzupassen.
Das Welcome-Programm hilft dabei, das Dateisystem an die Größe der SD-Karte anzupassen.

raspi-config und rc-gui

Das von Raspbian vertraute Konfigurationsprogramm raspi-config sowie dessen grafische Variante rc-gui kann mit apt installiert werden. raspi-config kann für manche Konfigurationsarbeiten tatsächlich verwendet werden. Einige Funktionen dieses Programms sind aber Raspbian-spezifisch implementiert und werden daher unter Ubuntu MATE nicht funktionieren.

rc_gui führt beim Start einen entsprechenden Test durch und stellt fest, dass MATE nicht der Raspbian-Standardkonfiguration entspricht (kein Benutzer pi, kein lightdm-Display-Manager). Das Programm kann deswegen unter MATE nicht benutzt werden.

GPIO-Zugriff

Sowohl das Kommando gpio als auch Python-Scripts, die das RPi.GPIO-Modul verwenden, können GPIOs nun ohne root-Rechte (ohne sudo) steuern.

Versionsnummern

Die folgenden Tabelle fasst zusammen, welche Software-Versionen unter Ubuntu 16.04 MATE anfänglich zum Einsatz kommen. Die Firefox- und Thunderbird-Pakete werden während der Lebensdauer von Ubuntu 16.04 regelmäßig aktualisiert.

Basis           Desktop            Programmierung     Server
--------------  ------------------ --------------    --------------
Kernel     4.4  Firefox        45  bash       4.3    Apache    2.4
glibc     2.23  Gimp          2.8  gcc        5.3    CUPS      2.1
X-Server  1.18  LibreOffice   5.1  Java       7/8    MySQL     5.7
Systemd    229  MATE         1.12  PHP          7    OpenSSH   7.2
                Thunderbird    38  Python     3.5    Postfix   3.1
                                                     Samba     4.3

Fazit

Zu den größten Ärgernissen in Ubuntu MATE zählt ein uraltes Gnome-2-Problem: Die Maus muss pixelgenau auf den Fensterrand positioniert werden um die Größe eines Fensters zu ändern. Ansonsten funktioniert Ubuntu MATE wunderbar, sowohl im Vergleich zu Raspbian als auch im Vergleich zum richtigen Ubuntu.

Allerdings fühlt sich MATE deutlich schleppender an als Raspbian — auch auf dem relativ rechenstarken Raspberry Pi 3. Die größte Bremse ist offenbar nicht die CPU, sondern die SD-Karte: Die unter MATE laufenden Programme sind durchwegs größer als die von Raspbian, entsprechend länger dauert der Bootprozess bzw. der erste Start eines Programms.

Bastler und Maker werden sicherlich weiterhin Raspbian den Vorzug geben. Für Desktop-Anwender ist MATE aber eine interessante Alternative. Spannend ist MATE auch für alle, die den Raspberry Pi zum Webserver machen wollen: Mit PHP 7 und MySQL 5.7 bietet MATE hier wesentlich aktuellere Versionen an als Raspbian.

Links

Ein Klick hier, ein Klick da, ein Klick trallalala, es hat sich nichts verändert. Das Abfragen von Nachrichten von verschiedenen Webseiten ist ziemlich mühselig, zeitaufwendig und wenn nichts Neues veröffentlicht wurde erfolglos. Auch ist der Vergleich, gerade bei politischen Nachrichtenquellen, eher schwierig, weil dann doch zu viel Zeit zwischen der „Beschaffung“ durch den Aufruf der Webseiten liegt.

Abhilfe bieten hier sogenannte RSS Reader , die man sich auf jedem Rechner oder Smartphone installieren kann. Eine wunderbare Sache.

Dennoch hat man unter Umständen das Problem, dass man auf jedem Endgerät der Lesestatus unterschiedlich ist und man im schlechtesten Fall Nachrichten doppelt liest, oder als gelesen markieren musss.

Also musste eine Lösung her, die sich auf allen Endgeräten synchronisiert und auch mitnehmbar ist (Smartphone). Die Lösung ist für mich „Tiny Tiny RSS“ (1). Eine OpenSourceSoftware, die sich auf einen Server (wie dem hyperblog) installieren lässt und auch eine Android App (2) (3) für das Smartphone bietet (. So kann ich aus jedem Webbrowser meine Nachrichten lesen und der Gelesen-Status synchronisiert sich auch auf das Smartphone.

Durch diverse Plugins wird das Lesen noch komfortabler, inklusive das Teilen auf die asozialen Netzwerke wird zudem sehr erleichtert.

Mittlerweile nutze ich TTR seit einem Monat mit ungefähr 127 Nachrichtenquellen, die grob geschätzt einen Tages-Output von 500 Nachrichten erzeugen und brauche nur noch einen Bruchteil der Zeit, um die für mich interessanten Artikel zu entdecken.

Nachtrag: Eben noch schnell das Statistik Plugin “feedstatistics” installiert und diesen Output bekommen

From your 127 subscriptions, over the last 30 days you read 15495 items

 

(1) https://tt-rss.org/

(2)  TTRSS-Reader (https://play.google.com/store/apps/details?id=org.ttrssreader&hl=de) #kostenlos

(3) Tiny Tiny RSS (TRIAL) (https://play.google.com/store/apps/details?id=org.fox.ttrss&hl=de) #trial 

 

Ein Klick hier, ein Klick da, ein Klick trallalala, es hat sich nichts verändert. Das Abfragen von Nachrichten von verschiedenen Webseiten ist ziemlich mühselig, zeitaufwendig und wenn nichts Neues veröffentlicht wurde erfolglos. Auch ist der Vergleich, gerade bei politischen Nachrichtenquellen, eher schwierig, weil dann doch zu viel Zeit zwischen der „Beschaffung“ durch den Aufruf der Webseiten liegt.

Abhilfe bieten hier sogenannte RSS Reader , die man sich auf jedem Rechner oder Smartphone installieren kann. Eine wunderbare Sache.

Dennoch hat man unter Umständen das Problem, dass man auf jedem Endgerät der Lesestatus unterschiedlich ist und man im schlechtesten Fall Nachrichten doppelt liest, oder als gelesen markieren musss.

Also musste eine Lösung her, die sich auf allen Endgeräten synchronisiert und auch mitnehmbar ist (Smartphone). Die Lösung ist für mich „Tiny Tiny RSS“ (1). Eine OpenSourceSoftware, die sich auf einen Server (wie dem hyperblog) installieren lässt und auch eine Android App (2) (3) für das Smartphone bietet (. So kann ich aus jedem Webbrowser meine Nachrichten lesen und der Gelesen-Status synchronisiert sich auch auf das Smartphone.

Durch diverse Plugins wird das Lesen noch komfortabler, inklusive das Teilen auf die asozialen Netzwerke wird zudem sehr erleichtert.

Mittlerweile nutze ich TTR seit einem Monat mit ungefähr 127 Nachrichtenquellen, die grob geschätzt einen Tages-Output von 500 Nachrichten erzeugen und brauche nur noch einen Bruchteil der Zeit, um die für mich interessanten Artikel zu entdecken.

Nachtrag: Eben noch schnell das Statistik Plugin “feedstatistics” installiert und diesen Output bekommen

From your 127 subscriptions, over the last 30 days you read 15495 items

 

(1) https://tt-rss.org/

(2)  TTRSS-Reader (https://play.google.com/store/apps/details?id=org.ttrssreader&hl=de) #kostenlos

(3) Tiny Tiny RSS (TRIAL) (https://play.google.com/store/apps/details?id=org.fox.ttrss&hl=de) #trial 

 

25. April 2016

Die Entwickler-Werkzeuge von Firefox haben sich in den letzten Jahren prächtig entwickelt und machen eine Erweiterung wie Firebug immer weniger notwendig. Nun hat Mozilla auch ein DOM-Panel integriert, wie man es aus Firebug kennt.

Mozilla arbeitet weiterhin mit den Firebug-Machern zusammen, um die direkt in Firefox integrierten Entwickler-Werkzeuge so mächtig zu machen, dass kein Firebug mehr notwendig ist. Seit wenigen Tagen ist sogar das Firebug-Theme direkt in Firefox integriert.

Firefox 48 DOM-Panel

Firebug gehört zu den populärsten Erweiterungen für Firefox und ist bei Webentwicklern sehr beliebt. Da es nur wenig Sinn ergibt, zahlreiche Funktionen zu duplizieren, die Firefox mittlerweile selbst hat, und der Aufwand enorm wäre, Firebug kompatibel mit der kommenden Multiprozessarchitektur von Firefox (Electrolysis / e10s) zu machen, arbeitet man daran, bestimmte Dinge, welche Firebug den in Firefox integrierten Werkzeugen noch voraus hat, direkt in Firefox zu implementieren.

Der Beitrag Firefox 48 bekommt DOM-Panel aus Firebug erschien zuerst auf soeren-hentzschel.at.

24. April 2016

Vor fast zwei Jahren richtete ich mir meinen ersten Homeserver ein. Bis letztes Wochenende lief der Rechner noch mit ArchLinux. Generell war der Betrieb von ArchLinux angenehm: Ich musste fast nichts machen und habe täglich Updates installiert. Nichtsdestotrotz habe ich jetzt den Homeserver auf Ubuntu 16.04 migriert. Hauptsächlicher Grund war, dass ich durch die Umstellung deutlich mehr an System-Administration lernen kann, was ich später und auch jetzt an anderer Stelle gebrauchen kann, als es bei einem ArchLinux-Server der Fall ist. Die Migration wäre prinzipiell recht einfach gewesen, wenn ich den grundsätzlichen Aufbau nicht verändert hätte. Die Hardware hingegen ist gleich geblieben.

LXD

Eines der Gründe wieder auf Ubuntu zu setzen ist der Einsatz von Ubuntu-Tools die nur eingeschränkt unter ArchLinux laufen oder anderweitig anstrengender sind zum Laufen zu kriegen. Einige Dienste habe ich deshalb in LXD/LXC-Container verpackt, was ich deutlich schöner und angenehmer in der Nutzung finde als Docker. Konkret laufen in einzelnen Containern owncloud, transmission für das Seeden von Ubuntu-ISOs und gogs.io für das Hosten von Git-Repositorys. Wer sich näher mit LXD beschäftigen will, der schaut sich am Besten die Blog-Serie vom LXD-Entwickler Stéphane Graber an. Für den Einstieg reichen auch schon die ersten paar Teile. Gegebenenfalls schreibe ich zur Einrichtung und Nutzung von LXD auch noch einen eigenständigen Artikel.

DHCP- und DNS-Server

Der Homeserver dient jetzt auch als DHCP- und DNS-Server im LAN. Mein Hauptproblem war, dass ich ownCloud innerhalb des LANs nicht über die dynamische DNS erreichen konnte, Das ist zwar für stationäre Laptops und PCs recht einfach mit einem Eintrag in /etc/hosts gelöst, doch geht das nicht auf Android-Geräten. Letztere hatten nämlich ständig eine unschöne Fehlermeldung angezeigt, dass CalDav, CardDav und ownCloud Sofort-Uploads nicht zu erreichen sind. Zum Einsatz kommt bei mir dnsmasq was es mit einfachen mitteln erlaubt einen DHCP- und DNS-Server zu betreiben. Im gleichen Zug habe ich LXD auch an die auf dem Homeserver konfigurierte Bridge gehangen, damit auch die Container eine IP-Adresse bekommen, damit man einfach per SSH auf die Container zugreifen kann.

Filesystem

Das Datengrab mit vormals 2x 2TB-Platten im Software-RAID und einem LVM habe ich soweit aufgelöst. Dazu gekommen ist eine 120GB-SSD, wo das System und die Container drauf liegen. Die 2x 2TB-Platten sind jetzt mit einem btrfs RAID-1 bestückt, somit ohne Software-RAID und ohne LVM. Der kurze Gedanke ZFS einzusetzen war zwar auch verhanden, habe es allerdings dann doch verworfen. Die Kenntnisse im Umgang mit btrfs kann ich dann weiterhin gut auch auf anderen Distributionen nutzen.

Configuration-Management mit Ansible

Der wohl letzte Punkt ist die Administration des Servers mit Ansible. Klingt am Anfang zwar toll und einfach, erfordert aber dann doch recht viel Arbeit, wenn man es ordentlich machen will. Da der Server doch eher früher als später wieder funktionsfähig sein sollte, erfolgt die Übernahme der Konfigurationen in Ansible-Playbooks eher nach und nach. Wiederholende Tasks lassen sich aber besonders einfach und sinnvoll mit Ansible automatisieren. Besonders das Updaten von mehreren Containern und den Ubuntu-PCs im Haushalt ist damit deutlich einfacher möglich.

Fazit

Schon jetzt viel Neues gelernt und vieles noch in Planung. Ziel erreicht. ;-)

Vor fast zwei Jahren richtete ich mir meinen ersten Homeserver ein. Bis letztes Wochenende lief der Rechner noch mit ArchLinux. Generell war der Betrieb von ArchLinux angenehm: Ich musste fast nichts machen und habe täglich Updates installiert. Nichtsdestotrotz habe ich jetzt den Homeserver auf Ubuntu 16.04 migriert. Hauptsächlicher Grund war, dass ich durch die Umstellung deutlich mehr an System-Administration lernen kann, was ich später und auch jetzt an anderer Stelle gebrauchen kann, als es bei einem ArchLinux-Server der Fall ist. Die Migration wäre prinzipiell recht einfach gewesen, wenn ich den grundsätzlichen Aufbau nicht verändert hätte. Die Hardware hingegen ist gleich geblieben.

LXD

Eines der Gründe wieder auf Ubuntu zu setzen ist der Einsatz von Ubuntu-Tools die nur eingeschränkt unter ArchLinux laufen oder anderweitig anstrengender sind zum Laufen zu kriegen. Einige Dienste habe ich deshalb in LXD/LXC-Container verpackt, was ich deutlich schöner und angenehmer in der Nutzung finde als Docker. Konkret laufen in einzelnen Containern owncloud, transmission für das Seeden von Ubuntu-ISOs und gogs.io für das Hosten von Git-Repositorys. Wer sich näher mit LXD beschäftigen will, der schaut sich am Besten die Blog-Serie vom LXD-Entwickler Stéphane Graber an. Für den Einstieg reichen auch schon die ersten paar Teile. Gegebenenfalls schreibe ich zur Einrichtung und Nutzung von LXD auch noch einen eigenständigen Artikel.

DHCP- und DNS-Server

Der Homeserver dient jetzt auch als DHCP- und DNS-Server im LAN. Mein Hauptproblem war, dass ich ownCloud innerhalb des LANs nicht über die dynamische DNS erreichen konnte, Das ist zwar für stationäre Laptops und PCs recht einfach mit einem Eintrag in /etc/hosts gelöst, doch geht das nicht auf Android-Geräten. Letztere hatten nämlich ständig eine unschöne Fehlermeldung angezeigt, dass CalDav, CardDav und ownCloud Sofort-Uploads nicht zu erreichen sind. Zum Einsatz kommt bei mir dnsmasq was es mit einfachen mitteln erlaubt einen DHCP- und DNS-Server zu betreiben. Im gleichen Zug habe ich LXD auch an die auf dem Homeserver konfigurierte Bridge gehangen, damit auch die Container eine IP-Adresse bekommen, damit man einfach per SSH auf die Container zugreifen kann.

Filesystem

Das Datengrab mit vormals 2x 2TB-Platten im Software-RAID und einem LVM habe ich soweit aufgelöst. Dazu gekommen ist eine 120GB-SSD, wo das System und die Container drauf liegen. Die 2x 2TB-Platten sind jetzt mit einem btrfs RAID-1 bestückt, somit ohne Software-RAID und ohne LVM. Der kurze Gedanke ZFS einzusetzen war zwar auch verhanden, habe es allerdings dann doch verworfen. Die Kenntnisse im Umgang mit btrfs kann ich dann weiterhin gut auch auf anderen Distributionen nutzen.

Configuration-Management mit Ansible

Der wohl letzte Punkt ist die Administration des Servers mit Ansible. Klingt am Anfang zwar toll und einfach, erfordert aber dann doch recht viel Arbeit, wenn man es ordentlich machen will. Da der Server doch eher früher als später wieder funktionsfähig sein sollte, erfolgt die Übernahme der Konfigurationen in Ansible-Playbooks eher nach und nach. Wiederholende Tasks lassen sich aber besonders einfach und sinnvoll mit Ansible automatisieren. Besonders das Updaten von mehreren Containern und den Ubuntu-PCs im Haushalt ist damit deutlich einfacher möglich.

Fazit

Schon jetzt viel Neues gelernt und vieles noch in Planung. Ziel erreicht. ;-)

Vor fast zwei Jahren richtete ich mir meinen ersten Homeserver ein. Bis letztes Wochenende lief der Rechner noch mit ArchLinux. Generell war der Betrieb von ArchLinux angenehm: Ich musste fast nichts machen und habe täglich Updates installiert. Nichtsdestotrotz habe ich jetzt den Homeserver auf Ubuntu 16.04 migriert. Hauptsächlicher Grund war, dass ich durch die Umstellung deutlich mehr an System-Administration lernen kann, was ich später und auch jetzt an anderer Stelle gebrauchen kann, als es bei einem ArchLinux-Server der Fall ist. Die Migration wäre prinzipiell recht einfach gewesen, wenn ich den grundsätzlichen Aufbau nicht verändert hätte. Die Hardware hingegen ist gleich geblieben.

LXD

Eines der Gründe wieder auf Ubuntu zu setzen ist der Einsatz von Ubuntu-Tools die nur eingeschränkt unter ArchLinux laufen oder anderweitig anstrengender sind zum Laufen zu kriegen. Einige Dienste habe ich deshalb in LXD/LXC-Container verpackt, was ich deutlich schöner und angenehmer in der Nutzung finde als Docker. Konkret laufen in einzelnen Containern owncloud, transmission für das Seeden von Ubuntu-ISOs und gogs.io für das Hosten von Git-Repositorys. Wer sich näher mit LXD beschäftigen will, der schaut sich am Besten die Blog-Serie vom LXD-Entwickler Stéphane Graber an. Für den Einstieg reichen auch schon die ersten paar Teile. Gegebenenfalls schreibe ich zur Einrichtung und Nutzung von LXD auch noch einen eigenständigen Artikel.

DHCP- und DNS-Server

Der Homeserver dient jetzt auch als DHCP- und DNS-Server im LAN. Mein Hauptproblem war, dass ich ownCloud innerhalb des LANs nicht über die dynamische DNS erreichen konnte, Das ist zwar für stationäre Laptops und PCs recht einfach mit einem Eintrag in /etc/hosts gelöst, doch geht das nicht auf Android-Geräten. Letztere hatten nämlich ständig eine unschöne Fehlermeldung angezeigt, dass CalDav, CardDav und ownCloud Sofort-Uploads nicht zu erreichen sind. Zum Einsatz kommt bei mir dnsmasq was es mit einfachen mitteln erlaubt einen DHCP- und DNS-Server zu betreiben. Im gleichen Zug habe ich LXD auch an die auf dem Homeserver konfigurierte Bridge gehangen, damit auch die Container eine IP-Adresse bekommen, damit man einfach per SSH auf die Container zugreifen kann.

Filesystem

Das Datengrab mit vormals 2x 2TB-Platten im Software-RAID und einem LVM habe ich soweit aufgelöst. Dazu gekommen ist eine 120GB-SSD, wo das System und die Container drauf liegen. Die 2x 2TB-Platten sind jetzt mit einem btrfs RAID-1 bestückt, somit ohne Software-RAID und ohne LVM. Der kurze Gedanke ZFS einzusetzen war zwar auch verhanden, habe es allerdings dann doch verworfen. Die Kenntnisse im Umgang mit btrfs kann ich dann weiterhin gut auch auf anderen Distributionen nutzen.

Configuration-Management mit Ansible

Der wohl letzte Punkt ist die Administration des Servers mit Ansible. Klingt am Anfang zwar toll und einfach, erfordert aber dann doch recht viel Arbeit, wenn man es ordentlich machen will. Da der Server doch eher früher als später wieder funktionsfähig sein sollte, erfolgt die Übernahme der Konfigurationen in Ansible-Playbooks eher nach und nach. Wiederholende Tasks lassen sich aber besonders einfach und sinnvoll mit Ansible automatisieren. Besonders das Updaten von mehreren Containern und den Ubuntu-PCs im Haushalt ist damit deutlich einfacher möglich.

Fazit

Schon jetzt viel Neues gelernt und vieles noch in Planung. Ziel erreicht. ;-)

Microsoft hat auf der Entwicklerkonferenz Build 2016 vor ein paar Wochen überraschend verkündet eine Unterstützung der klassischen /bin/bash und weiterer klassischer Linux binaries auf der Basis von Ubuntu 14.04 (und demnächst Ubuntu 16.04) unter Windows 10 zu unterstützen.

Dies hat natürlich zu vielen Fragen geführt. Die Entwickler von Microsoft und Canonical stellten sich den ersten Fragen zu dem Subsystem bereits kurz nach der Veröffentlichung.

Doch es blieben noch einige Fragen offen, gerade inwiefern sich dadurch Vorteile ergeben für den Entwickler, was er nicht schon in einer virtuellen Maschine erledigen konnte und wie überhaupt die technische Implementierung von Microsoft umgesetzt ist.

Microsoft geht auf diese Fragen nun in mehreren Blogpost auf ihren Entwicklerblogs im MSDN ein. In einem ersten Beitrag gehen sie auf die Historie von Windows Subsystems ein, die es schon seit Ewigkeiten in Windows gibt.

Windows Subsystem for Linux Components

Zudem beschreiben sie gut die einzelnen Komponenten, die für das Windows Subsystem for Linux (WSL) miteinander agieren und wie sie die Linux system calls für den Windows Kernel übersetzen. Des Weiteren wird konkreter auf das Dateisystem eingegangen und wie sie den Austausch und den Zugriff von Dateien aus dem Linux Subsystem auf die normalen Dateien unter Windows realisieren.

Für den normalen Nutzer sicher weniger spannend, dennoch gibt es interessante Einblicke für Entwickler und Microsoft will dies in den nächsten Blogposts noch detaillierter die einzelnen Komponenten beschreiben.

Es bleibt spannend zu beobachten, was Microsoft in Zukunft noch alles integrieren wird, denn bisher hat es natürlich nur den Stand einer frühen Beta mit einigen zentralen Funktionen die noch fehlen, auch wenn überraschenderweise schon etliches funktioniert. Man fordert aber aktiv Feedback was den Nutzern noch fehlt und möchte diese schnellstmöglich nachliefern. Mir gefällt der Schritt sehr gut, auch wenn ich einige Stimmen hörte, die die Entwicklung eher skeptisch betrachten, aber ich denke als Nutzer mehr Optionen zu haben ist immer ein Gewinn.

Ubuntu for Windows 10

Wer das ganze einmal selbst ausprobieren will findet eine Anleitung für die Installation unter Windows 10.

Klassische Festplatten sind auch in Zeiten von SSD basierten Speichermedien unverzichtbar, da sie zu einem günstigen Preis hohe Kapazitäten bieten. Kürzlich habe ich mir auf Basis von OpenMediaVault ein NAS-System aufgebaut, welches drei Western Digital WD40EZRZ Festplatten (WD Blue, 4 TB) im RAID 5 beherbergt. Das RAID Array ist erstens erweiterbar und zweitens verkraftet es den Ausfall einer Festplatte, weshalb ich hoffe, das System viele Jahre nutzen zu können. Das NAS-System läuft zwar nicht dauerhaft, aber häufig, als Festplatten setze ich keine besonderen für den 24/7 Betrieb ausgelegten Festplatten ein. So lange man den Load Cycle Count berücksichtigt, kann das gut funktionieren

Der Load Cycle Count gibt die Anzahl der Parkvorgänge der Schreib-/Leseeinheit an. Festplatten sind meiner Meinung nach ein wenig vergleichbar mit einem Schallplattenspieler. Nachdem man ein paar Hunderttausend Mal den Arm des Plattenspielers auf eine Schallplatte und wieder zurück gelegt hat (die Nadel lasse ich außer Acht), wird dieser sicherlich einen gewissen Verschleiß aufweisen. Ebenso verhält es sich bei Festplatten, denn um ein wenig Energie zu sparen, wird die Schreib-/Leseeinheit nach einigen Sekunden in Park-Position gebracht. Die meisten PCs, Server und NAS-Systeme müssen aber häufig Daten lesen und schreiben, so dass die Park-Position schnell wieder verlassen werden muss. Das Resultat ist ein hoher Load Cycle Count schon nach geringer Nutzungszeit. Als Höchstwert findet man je nach Festplatte Werte zwischen 300.000 und 600.000.

Den aktuellen Load Cycle Count kann man mit Hilfe der smartmontools abfragen:

[root@desktop ~]# smartctl -A /dev/sdf | grep Load_Cycle_Count
193 Load_Cycle_Count        0x0032   092   092   000    Old_age   Always       -       326477

Hier handelt es sich um eine weit verbreitete 2,5 Zoll Western Digital 320 GB Festplatte aus einem Notebook. Der Load Cycle Count beträgt bereits über 326477, weshalb ich die Festplatte lieber nicht mehr für wichtige Systeme einsetzen werde. Vielleicht hält sie noch 10 Jahre, aber die Wahrscheinlichkeit eines Versagens ist nun sehr hoch. Die Betriebszeit der Festplatte beträgt übrigens nur etwa 208 Tage. Im Durchschnitt hat es somit jeden Tag etwa 1500 Parkvorgänge gegeben.

Damit meinen neuen Festplatten im OpenMediaVault NAS nicht das gleiche Schicksal droht, habe ich den WD Idle Timer, welcher für das Parken verantwortlich ist, deaktiviert.

# IDLE3 Tools installieren
apt-get install idle3-tools
# Timer vollständig deaktivieren
idle3ctl -d /dev/sda
# Herunterfahren, damit die Festplatten den neuen Wert verwenden (Neustart reicht nicht aus)
shutdown -h now

Nach über einem Monat im Einsatz beträgt der Load Cycle Count meiner Festplatten nur 52, was in etwa der Anzahl der Boot-Vorgänge entspricht.

Häufig sehe ich Server, die gar keine Firewall verwenden. In einem kleinen internen Netz mag das vielleicht noch vertretbar sein, aber spätestens wenn der Server öffentlich erreichbar ist, sollte man sich Gedanken um eine Firewall machen. Für viele ist das zwar selbstverständlich ein alter Hut, aber viele Dienste laufen gedankenlos auf der Listen-Adresse 0.0.0.0 bzw. :: und sind damit bei Verwendung einer öffentlichen IP-Adresse oder NAT ohne Firewall für jedermann erreichbar.

Um die IPTables Firewall unter Debian oder Ubuntu zu konfigurieren, verwende ich iptables-persistent. Die Firewall-Regeln werden dabei in Textdateien gespeichert und beim Starten geladen. Nach der Installation von iptables-persistent besteht die Möglichkeit, bereits vorhandene Regeln zu speichern, was zu empfehlen ist, da somit schon eine grundlegende Konfiguration erstellt wird. Die Installation selbst ist simpel:

apt-get intall iptables-persistent

Anschließend wird jeweils eine Datei für IPv4 und IPv6 angelegt. Anbei eine einfache Beispielkonfiguration, die entsprechend den eigenen Bedürfnissen erweitert werden kann:

# Generated by iptables-save v1.4.21 on Mon Mar  7 18:13:53 2016
*filter
:INPUT ACCEPT [0:0]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [0:0]

-A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT
-A INPUT -p icmp -j ACCEPT
-A INPUT -i lo -j ACCEPT

# SSH
-A INPUT -p tcp -m state --state NEW -m tcp --dport 22 -j ACCEPT

# HTTP(S)
-A INPUT -p tcp -m state --state NEW -m tcp --dport 80 -j ACCEPT
-A INPUT -p tcp -m state --state NEW -m tcp --dport 443 -j ACCEPT

# NRPE (monitoring)
-A INPUT -p tcp -m state --state NEW -m tcp --dport 5666 -s 78.46.251.28/32 -j ACCEPT

-A INPUT -j REJECT --reject-with icmp-host-prohibited
-A FORWARD -j REJECT --reject-with icmp-host-prohibited
COMMIT
# Completed on Mon Mar  7 18:13:53 2016

Die Ketten INPUT, FORWARD und OUTPUT akzeptieren standardmäßig alle Verbindungen. Eingehender, zu anderen Verbindungen gehörender Verkehr (RELATED,ESTABLISHED) wird ebenfalls durchgelassen. Ebenso werden ICMP Pakete (Ping, -p icmp) aktzeptiert und auch Verbindungen zum lokalen Loopback Interface.

Dann werden die TCP Ports 22, 80 und 443 akzeptiert. Der Port 5666, auf welchem der NRPE Dienst hört, soll nur von einer IP Adresse erreichbar sein. Anschließend werden alle nicht vorher definierten eingehende und weiterzuleitende Verbindungen abgelehnt (-j REJECT –reject with icmp-host-prohibited). Alternativ können diese Zeilen entfernt werden, falls man die INPUT und FORWARD Kette standardmäßig auf REJECT stellt. Im Falle eines Fehlers in der Konfiguration ist es aber dann notwendig, physikalischen Zugriff auf den Server zu haben, da eventuell alle Verbindungen abgelehnt werden. Die Art der Konfiguration ist aber Geschmackssache, das Ergebnis ist gleich.

Für IPv6 sollen normalerweise etwa die gleichen Regeln gelten, ein paar Parameter (natürlich IPv6 anstatt IPv4 Adressen verwenden oder icmp6-adm-prohibited statt icmp-host-prohibited) müssen aber ausgetauscht werden. Das Ergebnis ist vergleichbar:

# Generated by iptables-save v1.4.21 on Mon Mar  7 18:13:53 2016
*filter
:INPUT ACCEPT [0:0]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [0:0]

-A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT
-A INPUT -p ipv6-icmp -j ACCEPT
-A INPUT -i lo -j ACCEPT

# SSH
-A INPUT -p tcp -m state --state NEW -m tcp --dport 22 -j ACCEPT

# HTTP(S)
-A INPUT -p tcp -m state --state NEW -m tcp --dport 80 -j ACCEPT
-A INPUT -p tcp -m state --state NEW -m tcp --dport 443 -j ACCEPT

# NRPE
-A INPUT -p tcp -m state --state NEW -m tcp --dport 5666 -s 2a01:4f8:c17:34ab::2/128 -j ACCEPT

-A INPUT -j REJECT --reject-with icmp6-adm-prohibited
-A FORWARD -j REJECT --reject-with icmp6-adm-prohibited
COMMIT
# Completed on Mon Mar  7 18:13:53 2016

Diese Regeln sind recht schlicht, aber schon ein sehr brauchbarer Anfang. Zusätzlich können noch ausgehende Verbindungen eingeschränkt werden, falls dies gewünscht ist. Spätestens wenn Datenbanken oder ähnlich sensible Dienste über Netzgrenzen hinweg erreichbar sein sollen, sollte definitiv zumindest irgendeine Art Firewall eingesetzt werden.

Die Ubuntu-Systemeinstellungen bieten nur recht wenig Einstellmöglichkeiten. Aber Ubuntu wäre nicht Linux, gäbe es nicht unzählige Möglichkeiten, den Desktop nach eigenen Vorstellungen zu gestalten.

Konfigurationswerkzeuge installieren

Die zur Ubuntu-Konfiguration vorgesehenen Systemeinstellungen reichen leider nicht aus, um weitergehende Konfigurationswünsche zu erfüllen. Mit dem folgenden Kommando richten Sie gewissermaßen Ihren persönlichen Werkzeugkasten ein:

sudo apt install compizconfig-settings-manager unity-tweak-tool gnome-tweak-tool ldconf-tools

Dock-Position ändern

In Ubuntu 16.04 können Sie das Dock auch am unteren Bildschirmrand darstellen. Am schnellsten gelingt die Positionsänderung mit den folgenden Kommandos, die im Terminal auszuführen sind:

gsettings set com.canonical.Unity.Launcher launcher-position Bottom
gsettings set com.canonical.Unity.Launcher launcher-position Left

Alternativ können Sie auch das Unity-Tweak-Tool starten, das Dialogblatt Unity/Starter öffnen und dort die Option Erscheinungsbild/Position entsprechend einstellen.

Fenster durch einen Klick im Dock minimieren und wieder einblenden

Ein Klick auf ein Icon im Dock startet das betreffende Programm bzw. zeigt das laufende Programm an. Schön wäre es, wenn ein weiterer Klick das Programm wieder minimieren würde, wie dies unter OS X und Windows der Fall ist. Unity kann das, die Option wird aber offiziell nicht unterstützt. Starten Sie den Compiz Settings Manager, öffnen Sie dort das Modul Unity Plugin und aktivieren Sie die Option Launcher / Minimize Single Window Applications minimiert das offene Fenster eines Programms durch einen Klick auf das Icon im Dock. Merkwürdig, dass diese praktische Einstellung nicht standardmäßig gilt.

Ein Klick auf das Programm-Icon im Dock minimiert das entsprechende Fenster
Ein Klick auf das Programm-Icon im Dock minimiert das entsprechende Fenster

Weniger Effekte, mehr Geschwindigkeit

Wenn Sie Ubuntu auf einem alten Rechner oder in einer virtuellen Maschine ausführen, dann bremsen grafische Effekte die Darstellung des Menüs bzw. das Ein- und Ausblenden von Fenstern spürbar ein. Abhilfe schaffen zwei Optionen, die Sie am schnellsten im Dialogblatt Fensterverwaltung/Allgemein des Unity Tweak Tools verändern können. Dort stellen Sie die Option Texturenqualität auf Schnell und deaktivieren die Option Window Animations.

Zwei Optionen im Unity Tweak Tool vergrößern die  Darstellungsgeschwindigkeit  auf dem Desktop merklich.
Zwei Optionen im Unity Tweak Tool vergrößern die Darstellungsgeschwindigkeit auf dem Desktop merklich.

Ergänzend dazu können Sie im Compiz Config Settings Manager im Modul Unity Plugin die Option General/Enable Low Graphics Mode aktivieren. Sie bewirkt unter anderem, dass das Startmenü ohne Transparenz dargestellt wird. Das ist optisch weniger elegant, dafür wird das Menü nicht nur schneller eingeblendet, sondern ist auch besser lesbar.

Unity für langsame Grafikkarten optimieren
Unity für langsame Grafikkarten optimieren

Dezentere Fensterschatten

Standardmäßig stattet Unity alle Fenster mit einem riesigen, halbtransparenter Schatten aus. Solange Sie ein Bild als Hintergrund verwenden, stört das nicht. Wenn Sie aber Screenshots auf weißem Hintergrund erstellen wollen, sind dezentere Schatten erforderlich. Die entsprechenden Einstellungen finden Sie im Compiz Config Settings Manager im Dialogblatt Decorations. Dort müssen Sie die Option Override Theme Settings aktivieren und können dann die Schattengröße in den Feldern Active und Inactive window shadow radius einstellen.

Im Compiz Config Settings Manager können Sie die Fensterschatten minimieren
Im Compiz Config Settings Manager können Sie die Fensterschatten minimieren

Leider gilt die so vorgenommene Schattenreduzierung nur bis zum nächsten Unity/Compiz-Update. Um den Schatten neuerlich zu minimieren, müssen Sie die Option Override Theme Settings deaktivieren und dann neuerlich aktivieren.

Systemzustand anzeigen

Wenn Sie wissen möchten, wie stark die CPU Ihres Rechners gerade beansprucht wird, wie viel RAM in Verwendung ist, ob die Festplatte oder SSD gerade beansprucht wird etc., installieren Sie das Paket indicator-multiload. Anschließend starten Sie das Indikator-Programm mit [Alt]+[F2] indicator-multiload. Das Programm zeigt nun im Panel in einer
kleinen Grafik die aktuelle CPU-Auslastung an. Mit einem Mausklick auf den Menüeintrag Einstellungen können Sie weitere Informationselemente einblenden.

Konfiguration der Systemlastanzeige im Panel
Konfiguration der Systemlastanzeige im Panel

Wetterbericht im Panel

Das Programm My Weather Indikator zeigt die aktuelle Außentemperatur und eine Wettervorschau an. Das Programm steht nicht als offizielles Ubuntu-Paket zur Verfügung. Sie müssen deswegen eine zusätzliche Paketquelle einrichten:

sudo add-apt-repository ppa:atareao/atareao
sudo apt update
sudo apt install my-weather-indicator

Danach starten Sie das Programm im Startmenü und führen die Konfiguration durch. Wenn Sie möchten, dass das Programm in Zukunft automatisch im Panel erscheint, müssen Sie die Optionen Automatisch Starten im Dialogblatt Allgemeine Einstellungen aktivieren.

Ausführlicher Wetterbericht durch den My-Weather-Indicator
Ausführlicher Wetterbericht durch den My-Weather-Indicator

Sondertasten der Tastatur konfigurieren

Wenn Sie die Caps-Lock-Taste deaktivieren oder die Windows-Taste wie die Strg-Taste behandeln möchten, starten Sie das Programm gnome-tweak-tool (bzw. das Optimierungswerkzeug im Startmenü). Dieses Programm fügt sich optisch nicht gut in den Ubuntu-Desktop ein und bietet unzählige Einstellungsmöglichkeiten, die für Ubuntu nicht relevant sind. Deswegen sollten Sie ausschließlich dessen Dialogblatt Eingabe verwenden. Dieses Dialogblatt ist trotz aller anderen Einschränkungen des Programms ausgesprochen nützlich!

Das Gnome Tweak Tool erfüllt Tastatursonderwünsche
Das Gnome Tweak Tool erfüllt Tastatursonderwünsche

Natural Scrolling mit dem Mausrad

»Natural Scrolling« bedeutet, dass bei Scroll-Bewegungen auf dem Touchpad der Fensterinhalt in die gleiche Richtung bewegt wird — so wie auf einem Smartphone. Wenn Sie ein Touchpad verwenden, finden Sie eine entsprechende Option im Modul Maus und Touchpad der Systemeinstellungen. Leider bleibt diese Option für die Maus wirkungslos. Damit auch traditionelle Mausanwender natürlich scrollen können, müssen Sie eine neue Konfigurationsdatei einrichten, z.B. mit dem Editor gedit:

sudo gedit /usr/share/X11/xorg.conf.d/20-natural-scrolling.conf

Diese Datei muss den folgenden Inhalt haben:

Section "InputClass"
        Identifier "Natural Scrolling"
        MatchIsPointer "on"
        MatchDevicePath "/dev/input/event*"
        Option "VertScrollDelta" "-1"
        Option "HorizScrollDelta" "-1"
        Option "DialDelta" "-1"
EndSection

Damit die Konfiguration wirksam wird, starten Sie Ihren Rechner neu oder führen nach dem Speichern aller offenen Dateien sudo service lightdm restart aus.

Mehr Touchpad-Optionen

Die Systemeinstellungen bieten zwar Möglichkeit, das Touchpad ganz zu deaktivieren; noch praktischer wäre aber ein Automatismus, der das Touchpad eines Notebooks immer dann deaktiviert, wenn gerade eine Maus angeschlossen
ist.

Abhilfe schafft das Paket touchpad-indicator. Es wird in einem Private Package Archive (PPA) zur Verfügung gestellt und kann nach der Installation unter dem Namen Touchpad-Anzeige im Unity-Menü gestartet werden.

sudo add-apt-repository ppa:atareao/atareao
sudo apt update
sudo apt install touchpad-indicator
Der Touchpad Indicator deaktiviert das Touchpad automatisch, sobald eine Maus angeschlossen ist
Der Touchpad Indicator deaktiviert das Touchpad automatisch, sobald eine Maus angeschlossen ist

Noch mehr Tipps

23. April 2016

In diesem Artikel möchte ich euch ein kleines Bash-Skript vorstellen, mit dem die Aktualisierung von Roundcube gesteuert werden kann.

Es führt ein Backup der Roundcube-Installation inkl. der dazugehörigen MySQL-Datenbank durch, lädt das TAR-Archiv der neuen Version herunter und aktualisiert die existierende Version.

Das Skript habe ich auf GitHub Gist unter der GPLv3 veröffentlicht. Ihr dürft es also gern unter den Bedingungen der GPLv3 verwenden, ändern und in eigene Projekte einbauen. Es kann auch am Ende dieses Artikels als ZIP-Archiv heruntergeladen werden.

Um das Skript nutzen zu können, müssen die vier Variablen am Anfang des Skripts definiert werden:

# Variablen
INSTALL_PATH=" " # Pfad zur Roundcube-Installation
RC_DB_NAME=" " # Name der zur Roundcube-Installation gehörenden MySQL-Datenbank
PACKAGE_URL=" " # Download-URL der akutellen Roundcube-Version
MYSQL_ROOT_USER=" " # MySQL-Benutzer mit Root-Rechten auf der Roundcube-Datenbank

Anschließend muss das Skript noch mit dem Befehl chmod a+x updating_roundcube.sh ausführbar gemacht werden.

Nun kann das Skript zur Aktualisierung der Roundcube-Installation ausgeführt werden. Getestet habe ich das Skript heute, um meine Roundcube-Installation von Version 1.0.8 auf Version 1.0.9 zu aktualisieren.

Downloads:

2016-04-23_updating_roundcube.zip

Das Verhältnis von KDE und stabilen Distributionen ist momentan ein schwieriges Thema. Dies liegt weder an KDE, noch an dem Entwicklungsmodell von stabilen Distributionen, sondern an dem aktuellen Entwicklungsstand der KDE Software. Stabile Distributionen setzen ein gewisses Entwicklungsstadium der enthaltenen Software voraus. Die KDE Software Compilation hatte dieses Stadium 2013/14 erreicht. Es kamen zwar noch neue Funktionen hinzu, aber die wesentlichen Komponenten waren ausgereift und die neuen Funktionen waren zu Gunsten einer erhöhten Stabilität, die LTS-Distribution bieten, vernachlässigbar. Man konnte guten Gewissens auf den enthaltenen Versionsständen verharren. KDE Plasma 5 und die auf KF5 portierten Programme haben dieses Stadium noch nicht erreicht. Jede neue Version bringt essenzielle Fehlerbehebungen und neue Funktionen, auf die man unmöglich jahrelang verzichten kann.

In den letzten 2 Jahren habe ich mich persönlich der Entwicklung des Linux-Desktops weitestgehend verweigert. Auf meinen Systemen lief fast durchgehend openSUSE 13.2 und das höchst zufriedenstellend. KDE Plasma 5 landete bestenfalls in einer virtuellen Maschine. Es gab und gibt eigentlich keinen Grund eine (noch mit Sicherheitsupdates versorgte) Distributionsversion zu aktualisieren. Auf dem Linux/KDE Desktop wurden seit Jahren keine Funktionen mehr eingeführt, die mein persönliches Nutzungserlebnis revolutionieren würden und alte Distributionsversionen sind zwar nicht unbedingt fehlerfreier, aber man hat gelernt mit den vorhandenen Fehlern zu arbeiten.

Gelegentlich bekommt man aber neue Hardware auf den Schreibtisch und ein Kernel 3.16 kann sich dann leider als zu alt herausstellen. Mein erster Gedanke war über OBS einen aktuelleren Kernel, z.B. aus 42.1 Leap, nachzuinstallieren und eventuell auch noch Mesa "zu Fuß" zu aktualisieren. Diese Überlegungen wären zwar sicherlich umsetzbar gewesen, aber ich verwarf sie dann doch. Ich wollte nie zu den Anwendern gehören, die aus einer puren Verweigerungshaltung heraus alte Versionen bis zum Erbrechen nutzen und bei jeder Neuentwicklung "Satan!" rufen. Ein längeres Festhalten an KDE SC 4 und Versionsständen aus dem Jahr 2013/14 schien mich gefährlich nahe in diesen Bereich zu führen.

Distributionen: OpenSUSE, Kubuntu, Arch Linux? Arch!

Grundsätzlich stand von Anfang an fest, dass KDE Plasma als Desktopumgebung für mich nicht verhandelbar ist. Prinzipiell präferiere ich zudem LTS-Distributionen, aber diese setzen voraus, dass man mit den ausgelieferten Versionsständen zufrieden ist und über viele Monate/Jahre damit arbeiten kann. KDE SC 4.14 erfüllte diesen Zweck für mich seit 2014, aber Plasma 5 ist auch nach fast zwei Jahren Entwicklung meiner Meinung nach noch im Beta-Stadium und nicht ausgereift genug. Neue Versionen sollten deshalb ohne Klimmzüge auf mein System gelangen.

Mit dieser Grundentscheidung begann ein Distributions-Hopping von etwas größeren Ausmaßen, das eigentlich nicht geplant war. Angefangen hat es mit der naheliegenden Entscheidung openSUSE 42.1 Leap zu installieren. OpenSUSE hat mit Leap eine Aktualisierungsrichtlinie etabliert, die meinem persönlichen Nutzungsverhalten und dem Entwicklungsstatus von KDE sehr entgegen kommt. Das Basis-Betriebssystem besteht aus SLE-Paketen, die in ihren Versionsständen absolut stabil gehalten werden. Die Desktopumgebung entstammt dem Tumbleweed-Zweig und wird regelmäßig aktualisiert. Dadurch kommt man zeitnah in den Genuss der aktuellen KDE Plasma & Applications-Versionen. Leider basiert Leap auf dem Kernel 4.1 und dieser hat auf der vorliegenden Hardware noch nie gut funktioniert. Das fragliche Gerät booten manchmal einfach nicht richtig bis zum Ende. Kubuntu 16.04, soeben frisch veröffentlicht und mit drei Jahren LTS-Support ist leider keine Alternative. Zwar ist Kubuntu in einem erfreulich guten Zustand und es ist schön zu sehen, dass nach den Umbrüchen in den vergangenen 6 Monaten eine benutzbare LTS mit drei Jahren Support erschienen ist, aber mit Kubuntu 16.04 ist man bei Plasma 5.5 und den KDE Applications 15.12 festgenagelt.

Distributionen mit einem rollenden Releasemodell entsprechen in der Regel nicht meinem persönlichen Nutzungsprofil. Damit soll keineswegs behauptet werden, dass sie fehleranfälliger wären oder dass man mit ihnen nicht viele Jahre problemfrei arbeiten kann. Das entspricht nicht unbedingt den Tatsachen - aber sie machen definitiv mehr Arbeit. Arbeit in dem Sinne, dass Updates gründlich geprüft werden müssen und nicht einfach durchgewunken werden können.

Unter den aktuellen Bedingungen war eine Rolling Release-Distribution aber die logische Konsequenz und frei nach dem Motto "Wenn schon, dann richtig!" musste es eben Arch Linux sein.

Arch: Linux ohne Airbag

Arch Linux ist nicht grundsätzlich neu für mich, ich hatte es bereits längere Zeit im Einsatz, aber das war vor vielen Jahren. Damals gab es noch eine zentrale Konfigurationsdatei und eine Installationsroutine. Aber das ist Schnee von gestern. Die Installation ist - auch dank der prima Anleitung - schnell erledigt, die Konfiguration nimmt dafür etwas mehr Zeit in Anspruch.

Arch verwendet keine grundsätzlich anderen Technologien als die meisten anderen Mainstream-Distributionen. Das ist meiner Meinung nach ein wesentlicher Unterschied zu anderen "Nischen-Distributionen" wie z.B. Slackware oder Gentoo. Linux-Kernel, systemd, udev, Network Manager - alles Software "von der Stange". Es wird einem aber fast keine Konfigurationsarbeit abgenommen. Arch zwingt somit auch langjährige Linux-Nutzer mal wieder zum tiefen Blick ins Handbuch zu werfen und bereits seit längerem etablierte Technologien genauer anzuschauen. Das ist eine prima Gelegenheit sich Wissen anzueignen, das man auch bei den anderen Distributionen anwenden kann. Systemd, Gummiboot systemd-boot, chroot - ein paar Tage Arch und man ist in diesen Themen deutlich geübter.

Homogenitätstest: Ohne KDElibs4 aber nicht ohne Qt4

Wenn man bei Arch Linux die Finger von den Metapaketen lässt, kann man eine ziemlich individuelle Paketzusammenstellung einrichten. Schlank ist bei KDE natürlich die falsche Bezeichnung. Die Gelegenheit galt es zu nutzen, um mal zu schauen, wie weit KDE mit der Portierung seiner Softwaresammlung auf KF5 ist. Das Fazit lautet: Erstaunlich weit.

Homogene Softwarezusammenstellungen sind meiner Ansicht nach immer zu bevorzugen. Software arbeitet dann einfach besser zusammen, Dialoge sind einheitlich gestaltet und die GUI besitzt einen ähnlichen Aufbau. Natürlich gibt es immer Software, die auf anderen Toolkits basiert und auf die man nicht verzichten kann. Nach vielen Jahren im KDE-Ökosystem sind das bei mir allerdings nur noch vereinzelte Programme.

Traditionelle, auf kdelibs4 basierende, Programme sind inzwischen die Minderheit. In meinem kleinen Experiment konnte ich gänzlich darauf verzichten. Lediglich Okular und Krusader sind noch nicht portiert. Hier gibt es aber Vorabversionen im AUR, die sich problemlos nutzen lassen.

Ein vollständiger Verzicht auf Qt4 ist hingegen noch nicht möglich. Nach wie vor basieren so wichtige Programme wie VLC oder KeePassX darauf.

KDE Plasma: Alter Desktop, neue Technologien

kde plasma 56

KDE Plasma und die KDE Applications laufen inzwischen hinreichend stabil - kein Vergleich zu den Erfahrungen vor einem Jahr. Abstürze oder gröbere Fehler sind mir in den vergangenen Tagen keine begegnet. Neue Funktionen oder richtige Wow!-Momente gab es aber auch keine. KDE Plasma und viele Programme gleichen im Funktionsumfang im Wesentlichen ihren KDE SC 4-Pendants - nur halt eben auf einer neuen technologischen Basis. Das gelungene Breeze-Design täuscht darüber hinweg, das am Bedienkonzept kaum etwas geändert wurde.

So positiv dies manchmal auch sein mag, einige Programme könnten eine grundsätzliche Überarbeitung dringend mal vertragen. Kontact ist ein zutiefst gruseliges Programm mit einem Einstellungsurwald, der sich nur eingeweihten erschließt. Es bleibt zu hoffen, dass hier im Laufe der Entwicklung der Generation 5 noch einige behutsame Veränderungen vorgenommen werden.

Fazit

Arch bleibt erst einmal auf dem einen Gerät und der aktuelle Entwicklungsstand von KDE Plasma 5 ist ein kleines Licht am Ende des Tunnels. Das Supportende von openSUSE 13.2 Anfang kommenden Jahres hat damit etwas Schrecken verloren. Einen Komplettumstieg auf Arch kann ich mir aber nicht vorstellen. In einem etwas gereiften Entwicklungsstadium werde ich mich wieder auf openSUSE oder Kubuntu einfrieren und die weitere Entwicklung aus interessierter Distanz beobachten. Bis dahin erfreue ich mich an jeder neuen Version - heute kamen gerade die Applications 16.04 rein. Akregator hat einen ordentlich Sprung hingelegt, ein Rückschritt zu 15.12 wäre unvorstellbar!

Ich benutze schon seit Jahren Evolution als E-Mail bzw. Groupware-Client. Leider fehlt in Ubuntu 16.04 seit einigen Wochen die deutsche Übersetzung des Programms.

Da eine Besserung im Moment noch nicht in Sicht ist, habe ich kurzerhand diese händisch „nachgerüstet“.

Ich habe aus dem GNOME3-Staging-PPA das „evolution-common“-Paket für Wily heruntergeladen und daraus die Datei „evolution-3.18.mo“ extrahiert und danach händisch nach „/usr/share/locale-langpack/de/LC_MESSAGES“ kopiert. Danach musste ich nur noch die Dateirechte anpassen.

Danach ist Evolution wieder auf Deutsch.

Ich habe noch einen alten Garmin Forerunner 305. Bislang konnte das Garmin Communicator Plugin von Andreas Diesner die Daten an die Garmin Connect Homepage übertragen. Dies funktioniert jetzt nicht mehr, da Garmin es für alle deaktivierte und es nur noch das Modern Theme existiert.

Meine Lösung (getestet mit Ubuntu 14.04)
Zuerst die benötigten Pakete installieren:
sudo apt-get install libxml2-utils libsaxonb-java garmin-forerunner-tools

Dann die Dateien von meinem Github Repository https://github.com/Schwarzkopf/garmin-dev herunterladen und in die richtigen Verzeichnisse verschieben.

sudo mv gmn2tcx /usr/local/bin/
sudo mv gmn2tcx.xslt /usr/local/bin/
sudo mv tcx.xsd /usr/local/bin/
sudo mv read_garmin_305 /usr/local/bin/
sudo mv 70-usb-custom.rules /etc/udev/rules.d/

Zum Schluss das Script read_garmin_305 bearbeiten. Es muss mindestens die Variable USER angepasst werden.

Funktionsweise
Das Anstecken des Garmin Forerunners erkennt udev und ruft das im der 70-usb-custom.rules angegebene Script /usr/local/bin/read_garmin_305 auf. Dieses liest die Daten aus der Pulsuhr und speichert sie im GARMIN_PATH ab. Das find Kommando such alle Dateien mit der Endung .gmn und die in den letzten 10 Minuten angelegt worden sind und konvertiert sie mittels XSLT in .tcx Dateien. Die .txc Dateien können jetzt manuell hochgeladen werden.

Bug in Ubuntu 16.04 Xenial Xerus
Beim Auslesen mit garmin_save_runs kommt immer Speicherzugriffsfehler oder Segmentation fault. Diese Version garmin-forerunner-tools 0.10repacked-8 hat einen Fehler Bug #1612987. Ich habe die Version garmin-forerunner-tools 0.10repacked-10 von Yakkety Yak genommen, dort ist der Fehler schon behoben.