Anwendungen
Portal
Forum
Wiki
Ikhaya
Planet
Mehr
Anmelden

22. Oktober 2014

CrossOver 14 mit einem Special zum 10. Ubuntu-Jahrestag veröffentlicht

Permalink Steam for Linux

CrossOver14

CodeWeavers – die Softwareschmiede hinter Wine – hat kürzlich eine neue Version der Software zur einfachen Ausführung von Windows-Anwendungen unter Linux und Mac OS X veröffentlicht: CrossOver 14. Die neue Version voller neuer Features kommt passend zum 10. Ubuntu-Jahrestag, da genau vor 10 Jahren Mark Shuttleworth die erste Version von Ubuntu - Ubuntu 4.10 „Warty Warthog“ - angekündigt hat.

Folgende neue Features enthält CrossOver 14 unter Linux:

  • CrossOver erkennt und installiert nun automatisch fehlende Pakete, die zur Ausführung von Anwendungen benötigt werden
  • Unterstützung für Ubuntu 14.10
  • Der Wine-Kern wurde um Tausende verschiedener Patches erweitert, die das Ausführen von noch mehr Windows-Anwendungen ermöglichen oder verbessern
  • Eine ganze Reihe von Anwendungen wird nun offiziell unterstützt, wie unter anderem Quicken 2015 oder Heartstone

Zum 10. Ubuntu-Jahrestag und zur Feier von CrossOver 14 startet CodeWeavers eine besondere Aktion, bei der CrossOver 14 mit einem Rabatt von 25% verkauft wird. Um den Rabatt zu bekommen, bestellt einfach CrossOver auf www.CodeWeavers.com und verwendet dabei den Gutscheincode 10thAnniversaryOfUbuntu. Diese Aktion gilt bis Ende November!

Also, feiert den 10thAnniversaryOfUbuntu mit CrossOver 14. Auf unserer Seite kann in dem Bereich „What Windows game do you want to play today?“ geprüft werden, ob eine Windows-Anwendung unter Linux mit CrossOver ausgeführt werden kann. Ich kann aus meiner Erfahrung bestätigen, dass Microsoft Office, World of Tanks, Starcraft 2 und viele andere Windows-Anwendungen ohne Probleme unter Ubuntu mit Hilfe von CrossOver laufen.

Tags: 
Linux
CrossOver
10thAnniversaryOfUbuntu
Games
Wine

Wo sind die OpenVPN Logs bei systemd zu finden?

Permalink [ENC]BladeXP's Blog

Mit dem Artikel „Wo sind die OpenVPN Logs zu finden?“, welcher heute durch den (ubuntuusers.de) Planet gerauscht ist, wurde ich wieder auf ein tolles Problem vom klassischen syslog aufmerksam gemacht: Es gibt keine Verknüpfung von einem Dienst zu einem Logfile, diese entsteht erst, wenn man der Anwendung mitteilt, ihre Logs in ein spezifisches Log zu schreiben.

Die Frage vom Autor kann unter Verwendung von systemd und dem dort enthaltenen Journal wie folgt beantwortet werden:

sudo journalctl -u openvpn@server
Eine Anpassung der Konfiguration oder umständliches durchsuchen von /var/log kann entfallen. Nicht vorhandene zusätzliche Logfiles müssen auch nicht rotiert werden ;)

Netflix unter Kubuntu mit Pipelight

Permalink Dem hoergen - Hyperblog

Netflix unter Kubuntu mit Pipelight
Netflix unter Linux ist mittlerweile recht einfach einzustellen. Großen Dank hier auch an das ubuntuusers Wiki! Erreichen kann man das mit Firefox in 5 Schritten
  1. Hinzufügen des Pipelight PPAs

    sudo add-apt-repository ppa:pipelight/stable

  2. Pipelight installieren

    sudo apt-get update sudo apt-get install –install-recommends pipelight-multi sudo pipelight-plugin –update

  3. Das Plugin aktivieren (Silverlight)

    sudo pipelight-plugin –enable silverlight

  4. Das Firefox Addon User Agent Override installieren und anpassen
    Installiere den User Agent Override , füge folgende 3 Zeilen am Ende hinzu und wähle dann im Addon “Firefox 15/Windows” aus

    # Netflix
    Firefox 15/Windows: Mozilla/5.0 (Windows NT 6.1; WOW64; rv:15.0) Gecko/20120427 Firefox/15.0a1
    Safari/OSX: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/534.55.3 (KHTML, like Gecko) Version/5.1.3 Safari/534.53.10

    Ob das Plugin ordentlich funktioniert siehst du hier http://fds-team.de/pipelight/

  5. Netflix benutzen
    Viel Spass ;)

Quellen

21. Oktober 2014

Ein Rückblick auf die Ubucon 2014

Permalink svij | Blog

Letztes Wochenende fand die Ubucon in Katlenburg-Lindau statt. Bereits am Sonntag veröffentlichte ich meine Folien vom Git-Workshop.

Vorbereitung

Nachdem ich im letzten Jahr in das Organisationsteam der Ubucon hereingerutscht bin, beteiligte ich mich auch dieses Jahr bei der Organisation. Im Gegensatz zu letztem Jahr war die Organisation generell eher etwas ruhiger. Manchmal auch zu ruhig, wie mir schien. Durch den eher ungewöhnlichen kleinen Ort wurden weniger Vorträge und Workshops eingereicht. Zudem haben sich vergleichsweise wenige Leute angemeldet. Ich selbst hatte ein wenig Zweifel, ob die Ubucon gut wird. Zum Glück haben sich meine Befürchtungen nicht bewahrheitet, aber dazu später mehr.

Die Veranstaltung

Freitag

Die Veranstaltung fing wie gewohnt auch dieses Mal an einem Freitag an. Bei der Anmeldung bekam jeder Besucher ein schönes Namensschild mit vollen Namen sowie Nicknamen drauf. Nachdem letztes Jahr mein Name scheinbar zu lang war, verschwand diesmal ein Buchstabe im Nachnamen. Also quasi alles wie immer. :-)

Torsten Franz hielt als Hauptorganisator zunächst seine kurze Eröffnungsrede und erzählte anschließend in seinem Vortrag „10 Jahre Ubuntu, 10 Jahre Community“ über die Entwicklung von Ubuntu und der Community. Anschließend begab sich ein Teil zum „Ritteressen“ welches in der benachbarten Burg stattfand. Ich selbst war dort allerdings nicht mit dabei.

Samstag

Am Samstag um 10 Uhr fing mein Git-Workshop an. Zu Beginn gab es, die für Konferenzen bekannten, WLAN-Probleme, die sich auch in meinem Git-Workshop ausgewirkt haben. Es dauerte daher eine Weile bis alle Teilnehmer an ihren Laptops erfolgreich Git installieren konnten. Auf Grund der Probleme musste ich auch kurzfristig meinen Workshop leicht umplanen, damit für den Rest des Workshops kein Internet gebraucht wurde. Abgesehen von den Problemen, lief es gut, wie ich es ja bereits im anderen Blog-Artikel schrieb.

Am restlichen Tag besuchte ich keine Vorträge mehr, sondern unterhielt mich lieber mit den vielen anderen netten Leuten. Am Abend fanden dann die beiden Social-Events statt. Während ein großer Teil zum „Theater der Nacht“ gefahren ist, waren die übrigen weiterhin in der Schule, wo Live-Musik gespielt wurde. Die Live-Musik war ganz okay, aber so wie die übrigen vom Theater geschwärmt haben, bereue ich es im Nachhinein doch dort nicht hingegangen zu sein. Bernhard hat dort einige sehr schöne Bilder geschossen.

Sonntag

Am Sonntag besuchte ich lediglich zwei Vorträge. Dies war zum einen der Talk über LVM sowie über systemd. Beide Vorträge wurden von Stefan J. Betz gehalten. Sie waren nicht nur informativ, sondern auch ganz lustig. ;-) Am frühen Nachmittag endete auch schon die Ubucon. Durch die vielen Helfer vor Ort war das Gröbste auch schon zügig abgebaut und aufgeräumt. Da einige Besucher vom Bahn-Streik betroffen waren, bildeten sich idealerweise noch spontan Mitfahrgelegenheiten.

Vor-Ort

Der Ort war klasse! Obwohl es eine Grundschule war, war die technische Ausstattung ziemlich gut. Die Schule besitzt einige Smartboards mit Beamer, die während der Veranstaltung zum Einsatz kamen. Direkt im Eingangsbereich befand sich ein großer Aufenthaltsraum in dem man seine freie Zeit verbringen konnte. Dort befanden sich auch einige Rechner mit verschiedenen Linux-Distributionen und Desktop-Umgebungen, welche die Besucher ausprobieren konnten. Die Idee kam von dem Organisator vor Ort und auch ich fand das ganz nett.

Auch neu war diesmal eine Spiele-Ecke. Es gab zwei Räume, in dem jeweils zwei Rechner mit Spielen vorinstalliert waren. Zudem gab es insgesamt auch noch zwei Kicker-Tische, die nicht nur ich genutzt habe. Sowohl die Idee als auch die Umsetzung waren ganz nett gemacht, da man sich dort auch ganz nett unterhalten konnte. Für die nächsten Ubucons hoffe ich, dass es so etwas nochmals gibt.

Jeder Vortragende hat übrigens einen Beutel voll mit Inhalt aus der Region bekommen. In dem Beutel befanden sich diverse Wurst-Sorten, Bier, Wein und noch eine Sauce. Auch wenn ich mit den meisten Sachen nicht viel anfangen kann, finde ich dies ebenfalls eine tolle Idee und auch eine nette Geste für die Vortragenden.

Die Verpflegung, welche bei der Ubucon immer im Teilnahmepreis enthalten ist, war ebenfalls deutlich besser als sonst. Die letzten Jahre wurden lediglich belegte Brötchen bei einer Bäckerei bestellt, die dann verzehrt werden konnten. Dieses Mal wurden die Brötchen von fleißigen Helfern geschmiert. Diese sorgten auch dafür, dass es durchgehend warme Bockwürstchen, Hühner- und Kürbis-Suppe gab. Diese schmeckten jeweils nach meiner Einschätzung gut und brachten eine gute Abwechslung rein. Dieses Jahr wurde daher ausnahmweise nicht mehr „Esst mehr Brötchen!“, sondern „Esst mehr Würstchen!“ gerufen ;-).

Fazit

Die Ubucon war toll! Im Vergleich zu den letzten Jahren ist sie zwar, was die Teilnehmer- und Vortragsanzahl angeht, kleiner geworden, allerdings war es diesmal vor Ort sehr sehr gut organisiert. Der Hauptorganisator Olaf Bialas hat da sehr gute Arbeit geleistet. Darunter fallen besonders auch seine eigenen Ideen die er eingebracht hat, etwa die Spiele-Ecke und der Rechner-Kreis mit den verschiedenen Distrubutionen und dessen Desktop-Umgebungen.

Für die Zukunft hoffe ich mir, dass die Ubucon ähnlich gut laufen wie dieses Mal. Ein Veranstaltungsort für nächstes Mal steht allerdings noch nicht fest. Prinzipiell finde ich es immer gut, wenn es jedes Jahr einen anderen, neuen Ort gibt. So sieht man nicht nur andere Städte, sondern man lernt auch viele neue nette Leute kennen. Insbesondere der letzte Punkt ist der hauptsächliche Grund, warum ich nicht nur die Ubucon besuche, sondern auch bei der Organisation mithelfe.

Borderlands: The Pre-Sequel für Linux veröffentlicht

Permalink Steam for Linux

Nachdem erst vor Kurzem Borderlands 2 mit offiziellem Linux-Support erschienen ist, wurde mit dem nächsten Titel der Spieleserie diese Tradition fortgesetzt.

Borderlands: The Pre-Sequel ist ein Mehrspieler-Shooter mit Rollenspielelementen, welcher seit einigen Tagen auf Steam erhältlich ist.

Der Spieler steigt in die Geschichte zwischen den beiden vorherigen Spielen aus der Borderlandsserie ein und stellt sich auf die Seite von „Handsome Jack“, des Antagonisten aus Borderlands 2, wobei einige geschichtsrelevante Lücken zwischen den Teilen 1 und 2 geschlossen werden, wie zum Beispel der Machtaufstieg von „Handsome Jack“.

Tags: 
Steam
Linux
Borderlands
The Pre-Sequel
2K
Aspyr

Wo sind die OpenVPN Logs zu finden?

Permalink Invictus deus ex machina

Wenn man einen OpenVPN-Server in der Standardkonfiguration betreibt, wird man sich unter Umständen wundern, an welcher Stelle ist das OpenVPN Log zu finden ist. Das liegt daran das der OpenVPN-Server das ganze in /var/log/syslog speichert. Möchte man nun die OpenVPN betreffenden Punkte filtern so sollte man auf der Konsole folgendes eingeben:

grep VPN /var/log/syslog

Alternativ kann man auch die OpenVPN-Konfiguration anpassen. Dazu muss die Datei /etc/openvpn/server.conf bearbeitet werden. Dort gibt es eine Option log-append, welche wie folgt angepasst wird:

log-append /var/log/openvpn.log

Nach einem Neustart des Service mittels:

service openvpn restart

wird die neu eingestellte Logdatei genutzt.

20. Oktober 2014

Mozilla veröffentlicht Thunderbird 31.2

Permalink Sören Hentzschel

Mozilla hat in der vergangenen Woche nicht nur seinen Firefox-Browser aktualisiert, sondern mit Version 31.2 auch eine neue Version des E-Mail-Clients Thunderbird zum Download bereitgestellt.

Download Mozilla Thunderbird 31.2 für Windows, OS X und Linux

Die vergangene Woche veröffentlichte Version 31.2 behebt sechs Sicherheitslücken, von denen drei von Mozilla mit der höchsten Gefahrenstufe versehen worden sind. Darüber hinaus werden Probleme in Zusammenhang mit Sicherheits-Zertifikaten behoben (Bug 1042889, Bug 1049435) und außerdem ein Fehler, der dafür sorgen konnte, dass Nachrichten fälschlicherweise an die E-Mail-Adresse der Person in der Liste anstatt an die ausgewählte Person geschickt wurden, wenn es im Adressbuch zwei Einträge mit demselben Namen gab und ein Eintrag davon Teil einer Liste war.

Upgradeverhalten unter Ubuntu konfigurieren

Permalink Invictus deus ex machina

Unter Ubuntu gibt es neben den halbjährlichen Versionen auch solche welche über einen längeren Zeitraum unterstützt werden. Diese sogenannten Long Term Releases erscheinen dabei alle zwei Jahre und werden fünf Jahre lang unterstützt. Bei Ubuntu kann man das System nun so konfigurieren das nur LTS Versionen oder jedes Release zum Upgrade angeboten wird. Möchte man diese Einstellung ändern, so muss man im Terminal:

nano /etc/update-manager/release-upgrades

eingeben. Im Editor öffnet sich dann folgende Datei:

# Default behavior for the release upgrader.

[DEFAULT]
# Default prompting behavior, valid options:
#
#  never  - Never check for a new release.
#  normal - Check to see if a new release is available.  If more than one new
#           release is found, the release upgrader will attempt to upgrade to
#           the release that immediately succeeds the currently-running
#           release.
#  lts    - Check to see if a new LTS release is available.  The upgrader
#           will attempt to upgrade to the first LTS release available after
#           the currently-running one.  Note that this option should not be
#           used if the currently-running release is not itself an LTS
#           release, since in that case the upgrader won't be able to
#           determine if a newer release is available.
Prompt=lts

Dort kann man unter Prompt die gewünschte Einstellung festlegen und bekommt damit vom System nur noch Hinweise wenn die gewünschten Versionen erscheinen.

WordPress Testumgebungen in Docker

Permalink debinux

Docker wirkt unter Umständen ziemlich kompliziert, so habe auch ich den ein oder anderen Artikel zu dieser tollen Software geschrieben, der es für den Anfang womöglich etwas zu weit treibt und dabei vergessen lässt, dass Docker wahnsinnig praktisch, einfach und modular ist.

Das möchte ich im Verlauf richtig stellen…

WordPress Testumgebungen in Docker:

  • Docker auf Server installieren (Debian/Ubuntu)
  • Fertige WordPress und MySQL Images herunterladen
  • Mehrere Container miteinander verlinken und starten
  • WordPress “Produktiv nach Testing” klonen (WordPress Plugin)

Ich verwende ausschließlich Images aus dem offizielle Docker Hub, um es nicht unnötig kompliziert zu machen.

Zur Information: Laut Dockerfiles basieren beide Images (WordPress + MySQL) auf Debian Wheezy

Installation Dockers

Debian Wheezy

Installation des Kernels aus dem Backport Repository mit anschließendem Neustart.
Dies ist notwendig, da erst ein Kernel ab Version 3.10 empfohlen wird.

1
2
3
4
echo deb http://ftp.us.debian.org/debian wheezy-backports main > /etc/apt/sources.list.d/wheezy-backports.list
apt-get update -y
apt-get -t wheezy-backports install linux-image-amd64 -y # Für ein amd64-basierendes System
reboot
OVH VMware vServer Besitzer sollten die Datei “/etc/grub.d/06_OVHkernel” vor dem Neustart löschen und “update-grub2″ ausführen, damit der neue Kernel aktiv wird.
Der OVH Kernel ist leider etwas beschnitten und bietet unter anderem keine cgroups.

Nun Docker installieren (lassen). Vorab “curl” installieren:

1
2
apt-get install curl
curl -sSL https://get.docker.io/ | bash

Ubuntu 14.04

Ich empfehle den Docker Installer zu verwenden. Es wird das offizielle Repository installiert. Auch hier im Vorfeld “curl” installieren:

1
2
apt-get install curl
curl -sSL https://get.docker.io/ubuntu/ | bash

Docker Einrichtung

Docker ist etwa wie Lego, verschiedene Module werden miteinander verknüpft und bilden eine ganze App.
Im Fall WordPress werden zwei Bausteine benötigt.

1
2
3
-------------             ---------
| WordPress | <---------> | MySQL |
-------------             ---------

Docker bringt mit WordPress auch gleich die Web-Server Appliance mit (Apache2), weshalb dieser nicht als Baustein oben aufgeführt ist.

Ich könnte auf folgende Befehle verzichten, da ein “pull” auch durch ein “run” ausgelöst würde (im nächsten Schritt), aber es ist vielleicht verständlicher für den Anfang:

1
2
docker pull wordpress
docker pull mysql

Somit sind beide Images (Bausteine) für eine WordPress Infrastruktur lokal abgelegt.
Optional hätte hier auch “mysql:5.5″ stehen können, womit ein Tag (oft für eine Version verwendet) angegeben wäre. Mehr dazu im Verlauf.

Allerdings startet Docker nie Images, sondern immer Container auf Basis eines Images.
Das ergibt die Möglichkeit, einen Baustein (fast) beliebig oft zu verwenden und jede Menge Testumgebungen zu schaffen.

So erstelle ich direkt zwei MySQL Container:

1
2
docker run --name mysql-container-1 -e MYSQL_ROOT_PASSWORD=q5iBzWs4h7nCyPeSmjn0 -d mysql
docker run --name mysql-container-2 -e MYSQL_ROOT_PASSWORD=Dl4M7hVoEDiQiJQC0Fci -d mysql:5.7

Den ersten Container nenne ich demnach “mysql-container-1″, den zweiten “mysql-container-2″.

Via Environment Variable gebe ich ein MySQL Root Passwort mit. Diese Variablen sind je nach Image unterschiedlich, dazu bitte immer das Docker Hub zur Hand nehmen und durchlesen, welche Attribute mitgegeben werden können (in diesem Fall: https://registry.hub.docker.com/_/mysql/)

Weiterhin gebe ich für den ersten Container keinen “Tag” nach “mysql” an, es wird “latest” angenommen, in diesem Fall bedeutet das MySQL in Version 5.6.

Ein “Tag” ist hingegen für den zweiten Container festgelegt: mysql:5.7. Ergo MySQL in Version 5.7. Auch die Tags eines Images sind immer dem Docker Hub zu entnehmen!

Wurden beide Befehle ausgeführt, sind die Container auch schon aktiv/gestartet (die IDs sind zufällig):

1
2
3
4
root@vps96713:~/build# docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS               NAMES
20a245efe5b3        -a:latest           "/entrypoint.sh mysq   5 seconds ago       Up 5 seconds        3306/tcp            mysql-container-2
8de566127e89        -a:latest           "/entrypoint.sh mysq   8 seconds ago       Up 7 seconds        3306/tcp            mysql-container-1

Das war einfach, oder?

Die Ausgabe “PORTS” beschreibt “exposed” Ports. Diese Ports wurden vom Ersteller des Images festgelegt und bedeuten, dass diese Schnittstellen von anderen Containern zur Kommunikation benutzt werden können. Ansonsten wäre so ein MySQL Container ja auch ziemlich wertlos…

Nun möchte ich auch zwei WordPress Installationen ablegen/starten:

1
2
docker run --name wordpress-spielwiese-1 --link mysql-container-1:mysql -p 8080:80 -d wordpress
docker run --name wordpress-spielwiese-2 --link mysql-container-2:mysql -p 8081:80 -d wordpress

Wieder wähle ich individuelle Namen für die Container (> “wordpress-spielwiese-1″ und “wordpress-spielwiese-2″).

Jetzt folgt der große Spaß, den Docker mitbringt: Ich verlinke jeweils einen MySQL Container mit einer WordPress Installation.

Das passiert durch “–link container-name:alias”. Der Alias ist frei zu wählen.
Ich erweise mich als unkreativ und entscheide mich für “mysql”.

Durch den Switch “-p” wird ein Port aus einem Container an den Host weitergeleitet.
So wird ein Zugriff via Browser auf Port 8081 zu Port 80 der WordPress Spielwiese 2 weitergeleitet. Gleiches Gilt für Port 8080 und Port 80 der Spielwiese 1.

WordPress hat nun also seine benötigte MySQL Installation an der Hand und – ganz wichtig – Zugriff auf die Environment Variablen, die für diese festgelegt wurden.

“wordpress-spielwiese-1″ weiß durch den Link zu “mysql-container-2″, dass “MYSQL_ROOT_PASSWORD=Dl4M7hVoEDiQiJQC0Fci” lautet. Und das ist wichtig! Denn…
Öffne https://registry.hub.docker.com/_/wordpress/ und stelle fest, dass es eine Menge Variablen gibt, die hätten mitgegeben werden können:

-e WORDPRESS_DB_USER=… (defaults to “root”)
-e WORDPRESS_DB_PASSWORD=… (defaults to the value of the MYSQL_ROOT_PASSWORD environment variable from the linked mysql container)
-e WORDPRESS_DB_NAME=… (defaults to “wordpress”)
-e WORDPRESS_AUTH_KEY=…, -e WORDPRESS_SECURE_AUTH_KEY=…, -e WORDPRESS_LOGGED_IN_KEY=…, -e WORDPRESS_NONCE_KEY=…, -e WORDPRESS_AUTH_SALT=…, -e WORDPRESS_SECURE_AUTH_SALT=…, -e WORDPRESS_LOGGED_IN_SALT=…, -e WORDPRESS_NONCE_SALT=… (default to unique random SHA1s)

Allerdings sind die “Defaults” alle annehmbar. Zu sehen ist, dass “WORDPRESS_DB_PASSWORD” dem Wert “MYSQL_ROOT_PASSWORD” aus einer verknüpften MySQL Installation entspricht. Somit ist alles notwendige für eine lauffähige Installation gegeben.

Noch einmal schaue ich mir den Status der Container an:

1
2
3
4
5
6
root@vps96713:~/build# docker ps
CONTAINER ID        IMAGE               COMMAND                CREATED             STATUS              PORTS                  NAMES
38b039fef2cd        wordpress:latest    "/entrypoint.sh apac   3 minutes ago       Up 3 minutes        0.0.0.0:8081->80/tcp   wordpress-spielwiese-2
64232ec1223f        wordpress:latest    "/entrypoint.sh apac   3 minutes ago       Up 3 minutes        0.0.0.0:8080->80/tcp   wordpress-spielwiese-1
20a245efe5b3        -a:latest           "/entrypoint.sh mysq   3 minutes ago       Up 3 minutes        3306/tcp               mysql-container-2
8de566127e89        -a:latest           "/entrypoint.sh mysq   4 minutes ago       Up 4 minutes        3306/tcp               mysql-container-1

Unter “PORTS” ist nun ebenso die Weiterleitung des jeweiligen Ports in den Container zu sehen.

Das war es schon.

Mit dem Browser öffne ich die URLS

http://1.2.3.4:8080

http://1.2.3.4:8081

wobei 1.2.3.4 für die IP des Hosts steht. Denn das interne Docker Netzwerk wird automatisch verwaltet.
Empfangen werde ich von der Installationsroutine WordPress':

Wordpress Installation

WordPress Installation

Alle Parameter zur Installation wurden bereits durch Docker konfiguriert, es fehlen nur noch die wesentlichen Details wie der Name des Blogs etc.

Verwaltung der Container

Die wichtigsten Befehle, um die erstellten Container/heruntergeladenen Images zu verwalten, nöchte ich nicht vorenthalten.
Bitte lest auf jeden Fall auch den User Guide durch.
pre>docker stop wordpress-spielwiese-1 # wordpress-spielwiese-1 anhalten
docker stop wordpress-spielwiese-1 # wordpress-spielwiese-1 starten
docker rm wordpress-spielwiese-1 # Den Container wordpress-spielwiese-1 löschen!
docker rmi wordpress # Das Image “wordpress”, das aus dem Docker Hub geladen wurde vom lokalen Host entfernen
docker rmi mysql:5.7 # Lediglich Version/Tag “5.7” des Images “mysql” vom lokalen Host löschen

Es wird auffallen, dass die oben erstellten WordPress Installationen nur dann starten, wenn auch der verlinkte MySQL Container gestartet wurde.

WordPress klonen

Für die Kopie meiner WordPress Installation verwendete ich das Plugin “All-in-One WP Migration”.
Nach der Installation befindet sich auf der linken Seite im Admin-Bereich der Punkt “Site Migration”. Die Verwendung ist wirklich selbsterklärend…

Site Migration Plugin

Site Migration Plugin


Der Import gestaltet sich genauso reibungslos.
Ich habe keine Probleme mit dem Plugin gehabt, nehme aber gerne Vorschläge zu Alternativen entgegen.

TL;DR

Docker installieren:

1
2
3
apt-get install curl
curl -sSL https://get.docker.io/ | bash # Debian
curl -sSL https://get.docker.io/ubuntu/ | bash # Ubuntu

Container starten:

1
2
3
4
docker run --name mysql-container-1 -e MYSQL_ROOT_PASSWORD=q5iBzWs4h7nCyPeSmjn0 -d mysql
docker run --name mysql-container-2 -e MYSQL_ROOT_PASSWORD=Dl4M7hVoEDiQiJQC0Fci -d mysql:5.7
docker run --name wordpress-spielwiese-1 --link mysql-container-1:mysql -p 8080:80 -d wordpress
docker run --name wordpress-spielwiese-2 --link mysql-container-2:mysql -p 8081:80 -d wordpress

Zugriff auf http://host:8080 sowie http://host:8081.

Automatisches Übersetzen von LaTex-Quellcode

Permalink c3vo

Schreibt man gerade an einem LaTex-Dokument, schaut der Workflow eigentlich immer relativ gleich aus: Tex-Quellcode in einem Texteditor schreiben, nach einer Änderung Quelltext in zum Beispiel PDF übersetzen und das Ergebnis anschließend anschauen. Das häufige hin und her Wechseln zwischen Terminal und den beiden anderen Fenstern kann gerade bei längerem Arbeiten nerven. Eine eigene Entwicklungsumgebung finde ich für LaTex dagegen auch übertrieben. Ich präferiere zudem auch den Texteditor meiner Wahl (in meinem Fall Geany, kann aber freilich auch vim, sublime etc. sein) Meistens führt man im Terminal zum LaTex-Kompilieren folgenden Befehl aus:

pdflatex Beispiel-datei_xyz.tex

Viel angenehmer ist es in meinen Augen aber, wenn die tex-Datei bei jeder Änderung automatisch in eine pdf übersetzt wird. Das geht einfach mit folgenden Befehl und mithilfe von inotify (Installation ist dort ebenfalls beschrieben):

while true; do inotifywait -e modify *.tex; latexmk -pdf; done

Wenn man BibTex verwendet, kann man neben *.tex auch noch ein *.bib hinzufügen.

Damit kann es höchstens passieren, dass durch einen Syntaxfehler das Kompilieren gestoppt wird. Dadurch kann man gerade bei größeren Bildschirmen Editor- und PDF-Reader immer nebeneinander im Vordergrund behalten – ein ständiges Wechseln zwischen Terminal und Editor entfällt. Verwendet man als PDF-Reader zum Beispiel evince, wird die PDF bei jeder Änderung automatisch neu geladen. Winwin-Situation – und ein Stückchen angenehmeren Workflow. ;)

Update: Alternative ohne inotifywait

Per Kommentar hab ich die Information bekommen, dass latexmk auch von Haus aus eine sehr ähnliche Funktion bietet. Erstmal Danke für den Hinweis! Denn ein einfaches

latexmk -pdf -pvc codierung.tex

macht die gleiche Arbeit wie ein der Befehl mit inotifywait. Einzige Einschränkung, die es nach Manpage gibt:

Zudem wird standardmäßig Adobe Reader (der bekanntermaßen nicht mehr für Linux existiert) für die automatische Vorschau verwendet. Um das zu ändern, folgendes im Terminal ausführen:

echo '$pdf_previewer = "start evince";' >> ~/.latexmkrc

Ich habe hier beispielhaft einfach mal evince eingetragen. Man kann natürlich auch Okular oder einen ganz anderen PDF-Reader seiner Wahl eintragen. Mehr Infos gibt es in der Manpage von latexmk.

19. Oktober 2014

Fertig! Git-Workshop auf der Ubucon 2014

Permalink svij | Blog

An diesem Wochenende fand die Ubucon 2014 in der Gemeinde Katlenburg-Lindau statt. Einen Rückblick auf die diesjährige Ubucon folgt an dieser Stelle allerdings noch nicht. Dies folgt im Laufe der Woche.

Im August hatte ich bereits angekündigt, dass ich dieses Jahr einen Git-Workshop auf der Ubucon halten werde. Wie geplant, tat ich dies dann auch. Für mich war der Workshop generell mal was neues, da ich bislang lediglich Vorträge auf der Ubucon gehalten habe. Aus demselben Grund war auch die Zeitplanung schwierig. Meine Schätzung von zwei bis drei Stunden hat ungefähr hingehauen, sodass wir nach knapp 2,5h fertig waren.

Insgesamt haben knapp 17 Leute teilgenommen. Die Anzahl war zum Glück nicht zu groß, sodass man einen guten Überblick halten konnte. In dem Workshop behandelte ich die grundsätzlichen Git-Features. Dies umfasst das einfache Committen von Änderungen, das Arbeiten mit Branches, sowie die Nutzung von Remote-Repositories.

Die Folien habe ich dieses Mal erstmals auf Speakerdeck.com hochgeladen. Diese lassen sich hier ansehen. Man sollte jedoch beachten, dass hier wie üblich meine gesprochenen Worte fehlen und sich die Folien daher grundsätzlich größtenteils an die Teilnehmer des Workshops richtet. Der Quell-Dateien finden sich separat in einem Repository auf Github.

Bald sollte dann auch endlich der erste Teil des Git-Tutorials fertig sein. Den veröffentliche ich dann, wie gewohnt, hier und in eine der kommenden Ausgaben von freiesMagazin.de.

Abstimmung zum Free! Music! Contest 2014

Permalink deesaster.org

Die Einsendungen zum Free! Music! Contest 2014 sind alle angekommen und nun geht es zur Abstimmung. Jeder, der 2,50 Euro gespendet hat – egal ob für den digitialen Download oder ein physisches Exemplar später – ist berechtigt mit abzustimmen. Jeder hat noch bis zum 31. Oktober 2014 Zeit, sich für die Abstimmung anzumelden und kann so einen Beitrag für den nächsten F!M!C-Sampler liefern.

Zur Abstimmung stehen fast 70 Musikstücke mit beinahe fünf Stunden Spielzeit aus verschiedenen Musikrichtungen wie Pop, Rock, Elektro, Punk oder Ska bereit. Die Sprache variiert dabei, wobei Deutsch und Englisch doch überwiegen. Auch Instrumental-Titel sind vertreten. Die Abstimmung geht über ein Online-Formular, wo man ganz einfach nur ankreuzen muss, welche Titel alles auf den Sampler sollen.

Wie bereits geschrieben unterliegen alle Songs einer Creative-Commons-Lizenz und können – nach der Abstimmung, wenn möglich – so entsprechend an jeden frei weiter verteilt werden. Wer freie Musik mag, sollte sich also überlegen, den Wettbewerb zu unterstützen.

Ich setz mich dann mal hin und höre etwas Musik! :)

Wochenrückblick 42/2014

Permalink deesaster.org

Der Wochenrückblick lässt das Geschehen der vergangenen Woche rund um Ubuntu, Linux und Open Source Revue passieren.

Rund um Ubuntu

Unity 8 als Standard in Ubuntu 16.04

Will Cooke, Chef des Ubuntu-Desktop-Teams, teilte mit, dass Unity 8 und der eigene Displayserver Mir, die beide bereits bei Ubuntu Touch für das Ubuntu Phone zum Einsatz kommen, frühestens in Ubuntu 16.04 LTS zum Standard werden würden. Nach wie vor soll interessierten Anwendern aber die Möglichkeit gegeben werden, bereits vorher Unity 8 und Mir aus den Paketquellen zu installieren.

Quelle: Golem

Neues rund um Linux

NVIDIA, Wayland und Mir

Die beiden Displayserver(-Protokolle) Wayland und Mir sollen früher oder später den X-Server ablösen und buhlen noch um die Gunst der Distributionen, wobei Canonicals Displayserver Mir aktuell nur von Ubuntu unterstützt wird. NVIDIA hat bekannt gegeben, dass ihre zukünftige Closed-Source-Treiber-Generation beide Protokolle unterstützen wird.

Quelle: Linux-Magazin

Dronecode vorgestellt

Die Linux Foundation hat das Projekt „Dronecode“ vorgestellt, bei der es darum geht, ein Embedded-Linux zu entwickeln, was speziell für den Einsatz von Drohnen gedacht ist. Die Drohnen sollen später bei Umweltforschung, humanitärer Hilfe oder bei Rettungseinsätzen zum Einsatz kommen.

Quellen: Linux-Magazin, Golem, heise open, Pro-Linux

LinuxTag im Umbruch

Der LinuxTag soll nächstes Jahr keine Konferenzmesse mehr sein, sondern anders gestaltet werden. Der Aufwand sei sehr hoch und die Kosten wachsen für einen Linux-Messe zu sehr. Wie genau sich der LinuxTag 2015 gestalten wird, ist noch nicht klar.

Quelle: heise open

Linux Foundation sucht Projekte

Die Linux Foundation ruft dazu auf, breitflächig eingesetzte Open-Source-Projekte vorzuschlagen, die externe Unterstützung brauchen (z.B. in Form von Entwicklern oder Code-Prüfungen). Die Linux Foundation will damit die Verlässlichkeit von Open-Source-Software stärken.

Quelle: heise open, Pro-Linux

PhysX-GPU-Berechung unter Linux

PhysX von NVIDIA ist für die Berechnung physikalischer Effekte in Computerspielen zuständig. Bisher unterstützte der Treiber nur Windows und MacOS X, wird in Zukunft aber auch Linux unterstützen, sodass physikalische Berechnungen direkt in der GPU anstatt der CPU stattfinden können.

Quelle: Pro-Linux

Spielen unter Linux

Humble Mozilla Bundle

Dank asm.js gibt es im aktuellen Humble Bundle zahlreiche gute Spiele, die im Firefox-Browser und Google Chrome laufen. Darunter unter anderem Super Hexagon, Osmos, Dustforce, Voxatron, Faster Than Light und Democracy 3.

Quelle: heise open

0 A.D. in neuer Version

Das beliebte Echtzeit-Strategiespiel 0 A.D. von Wildfire Games steht in Version Alpha 17 „Quercus“ zur Verfügung. Neben der Performance wurde auch das Gameplay verbessert und neue Features eingebaut.

Mehr Informationen gibt es im Ikhaya-Artikel.

Weitere Quellen: heise open

Raven's Cry für Linux geplant

Auch wenn sich das Piraten-Action-Adventure Raven's Cry von Topware um einen Monat auf Ende November verschiebt, hat Entwickler Topware bekannt gegeben, dass das Spiel auch für Linux und SteamOS zur Verfügung stehen wird.

Quelle: Pro-Linux

Humble Mozilla Bundle: Indie-Spiele direkt im Browser spielen

Permalink Sören Hentzschel

Humble Bundle hat zusammen mit Mozilla das Humble Mozilla Bundle zusammengestellt – eine Sammlung von Spielen, welche ohne Installation und DRM-frei im Browser laufen, dank asm.js-Technologie in Firefox schneller als in jedem anderen Browser.

Das Humble Mozilla Bundle ist eine Sammlung von Indie-Spielen, welche direkt im Browser laufen. Den Preis bestimmt der Nutzer selbst. Enthalten sind im Paket Super Hexagon, AaaaaAAaaaAAAaaAAAAaAAAAA!!! for the Awesome, Osmos, Zen Bound 2 und Dustforce DX. Wird mindestens der Durchschnittspreis investiert, dann gibt es oben drauf noch Voxatron, FTL: Faster Than Light Advanced Edition sowie noch ein weiteres Spiel, welches in den nächsten Tagen freigeschaltet werden wird. Zusätzlich gibt es noch das Spiel Democracy 3, wenn mindestens acht Dollar bezahlt werden. Mindestens ein Dollar muss investiert werden, damit die Spiele (mit Ausnahme von Voxatron) auch über Steam verfügbar sind. Inbegriffen sind auch einige Soundtracks zu den Spielen. Der Gesamtwert des Bundles beträgt 104 Dollar. Der Käufer kann außerdem entscheiden, wie viel vom Kaufpreis die Entwickler, Humble oder eine von drei Non-Profit-Organisationen, in diesem Fall zum Beispiel Mozilla, erhalten. Mit dem Kauf der Spiele kann Mozilla also direkt unterstützt werden. Alle Spiele können als Vorschauversion vor dem Kauf angespielt werden.

Gemeinsam ist allen Spielen, dass sie auf Mozillas asmj.js-Technologie setzen, was diese Spiele zwar auch spielbar in anderen Browsern macht (wobei nur für Firefox und Chrome Kompatibilität garantiert wird), sie aber in Firefox ganz besonders performant macht. Die Spiele funktionieren direkt im Browser, ohne Plugin, ohne Installation, ohne DRM. Das Bundle kann Stand jetzt noch neun Tage und wenige Stunden erworben werden.

Video auf YouTube ansehen

EDIMAX EW-7811UN Wireless USB Adapter unter Jessie

Permalink Intux

news-295

Möchte man einen EDIMAX EW-7811UN Wireless USB Adapter mit Debian Jessie in Betrieb nehmen ist man auf einen unfreien Treiber angewiesen.

Hierzu ist in der /etc/apt/sources.list

# nano /etc/apt/sources.list

folgender Eintrag notwendig.

# Debian jessie (testing)
deb http://http.debian.net/debian/ jessie main contrib non-free

Jetzt das Ganze mit Ctrl + o speichern, mit Enter, den Editor mit Ctrl + x verlassen und den Treiber installieren.

# apt-get update && apt-get install firmware-ralink

Viel Spaß!

Mozilla veröffentlicht Firefox 33 mit vielen Verbesserungen

Permalink Sören Hentzschel

Mozilla hat in dieser Woche neue Versionen von Firefox für Windows, OS X und Linux mit vielen Verbesserungen veröffentlicht.

Download Mozilla Firefox 33 für Windows, OS X und Linux

Mehr Sicherheit für Firefox-Nutzer

Am Dienstag ist Firefox 33 für Windows, OS X und Linux erschienen. Auch in dieser Version behebt Mozilla wieder neun Sicherheitslücken, von denen Mozilla drei als besonders kritisch einstuft.

Mit Firefox 33 hat Mozilla die Unterstützung einiger unsicherer TLS-Algorithmen deaktviert, RSA 1023 und schwächere Zertifikate werden aus Sicherheitsgründen ab sofort blockiert.

Verbesserte Adressleisten-Funktionalität

Mit Firefox 33 verbessert Mozilla die Funktionalität der Adressleiste. Konkret verbessert Mozilla die Suche nach Begriffen, die aus nur einem Wort bestehen, sowie nach arithmetischen Ausdrücken. Bislang hat Firefox den Suchbegriff zunächst versucht auf eine URL aufzulösen, im Falle von “1234-5678″ beispielsweise auf “http://1234-5678/” und danach erst eine Suche bei der eingestellten Suchmaschine nach “1234-5678″ durchgeführt. Die Suche nach einer Zahl wie “12345678” hat direkt eine Fehlermeldung produziert. Letzteres konnte bislang durch das Voranstellen eines Fragezeichens, also “?12345678″ umgangen werden.

In beiden Fällen verhält sich Firefox ab Version 33 anders und sendet die Anfrage direkt an die Suchmaschine der Wahl. Gleichzeitig führt Firefox im Hintergrund eine Suche nach lokalen Hosts durch und bietet im Falle eines Treffers die Option an, diesen Begriff als lokalen Host zu speichern, so dass eine Suche danach in Zukunft den lokalen Host anstelle der Suchmaschine aufruft. Wer das Verhalten diesbezüglich vorab über about:config konfigurieren möchte, kann dies durch Anlegen von Boolean-Schaltern nach dem Schema “browser.fixup.domainwhitelist.” plus Hostname machen, im Falle des Hosts “agenedia” zum Beispiel “browser.fixup.domainwhitelist.agenedia” mit dem Wert true”. Der Hostname “localhost” ist bereits automatisch konfiguriert.

Suchvorschläge auf der Startseite und in neuen Tabs

Bislang kann Firefox über die Suche im Suchfeld Suchvorschläge der jeweiligen Suchmaschine anzeigen, nicht aber auf der standardmäßig eingestellten Startseite about:home oder dem Suchfeld auf about:newtab, der Seite, welche standardmäßig beim Öffnen eines neuen leeren Tabs erscheint. In beiden Fällen zeigt Firefox ab sofort auch Suchvorschläge an, sofern die eingestellte Suchmaschine dies unterstützt.

Open Source H.264-Integration für WebRTC

Mit OpenH264 stellt Cisco eine Open Source-Implementierung des H.264-Codecs bereit. Mozilla integriert diese in Firefox 33, aus Lizenzgründen allerdings nicht direkt, stattdessen wird der Codec in Form eines Gecko Media Plugins nach dem Start von Firefox heruntergeladen. Wie die übrigen NPAPI-Plugins (Flash, Silverlight & Co.) kann auch dieses Plugin über den Add-on Manager deaktiviert werden. Click-to-Play steht hier nicht zur Auswahl, da dieser Codec lediglich für WebRTC genutzt werden kann, wofür Click-to-Play nicht relevant ist. Das Gecko Media Plugin läuft in einer Sandbox.

Unterstützung für Bildschirm- und Fenster-Sharing via WebRTC

Im Zusammenhang mit WebRTC nennenswert ist auch die Tatsache, dass Firefox ab Version 33 das Teilen des Bildschirm- beziehungsweise Fensterinhalts erlaubt. Relevanter Beispielcode wurde auf diesem Blog veröffentlicht, Talky wäre eine reale Anwendung, welche hiervon Gebrauch machen kann. Derzeit ist es noch so, dass Webseiten, denen diese erweiterte WebRTC-Funktionalität gestattet sein soll, per about:config eingetragen werden muss. Am Beispiel von Talky wird dies in einem gesonderten Artikel beschrieben.

In diesem Zusammenhang hat Mozilla auch den Indikator verändert, welcher anzeigt, dass eine Kommunikation über WebRTC stattfindet. Bislang hat Firefox ein zusätzliches Symbol in der Symbolleiste angezeigt, wenn die Kamera und/oder das Mikrofon aktiviert ist, und dem Nutzer darüber die Möglichkeit gegeben, die Freigabe zu beenden, auch wenn der entsprechende Tab gerade nicht im Vordergrund ist. Mit der Ergänzung um Bildschirm- und Fenster-Sharing war man allerdings besorgt darüber, ob dieser Indikator sichtbar genug ist und hat diesen ersetzt. Anstelle eines zusätzlichen Symbols in der Symbolleiste sehen Windows- und Linux-Nutzer nun am oberen Bildschirmrand fixierte Kontrollsymbole, welche auch sichtbar sind, wenn Firefox nicht sichtbar ist. Nutzer von Mac OS X sehen entsprechende Symbole in der globalen Menüleiste, auch wieder unabhängig davon, ob Firefox im Vordergrund ist oder nicht.

Verbesserte Sitzungswiederherstellung

Mozilla hat auch die Sitzungswiederherstellung von Firefox verbessert und die Wahrscheinlichkeit einer nicht erfolgreichen Wiederherstellerung der letzten Sitzung verringert. Diese Änderung wird auf diesem Blog in aller Ausführlichkeit beschrieben.

Firefox merkt sich kopierte Inhalte Privater Fenster

Hat man bislang in einem Privaten Fenster Text einer Webseite kopiert und das Private Fenster anschließend geschlossen, dann wurde der kopierte Inhalt von Firefox verworfen. Dabei handelte es sich um keinen Fehler, sondern um eine ganz bewusste Entscheidung. Für einige Firefox-Nutzer war dies eher störend, so dass Mozilla das Verhalten in Firefox 33 nun geändert hat und Firefox den Inhalt der Zwischenablage auch nach dem Schließen Privater Fenster nicht mehr verwirft. Gleiches gilt übrigens auch, wenn man Firefox keine Chronik anlegen lässt – bei dieser Einstellung befindet sich Firefox in einer Art permanentem Privaten Modus, welcher sich genauso verhalten hat und von dieser Änderung betroffen ist.

Optimierte String-Kodierung der JavaScript-Engine

Mozilla hat Verbesserungen an der JavaScript-Engine vorgenommen, welche Strings intern statt wie bisher in UTF16 nun als Latin1 speichert, die darum für die meisten Zeichen nur noch einen statt zwei Byte Platz benötigen. Da dies lediglich die interne String-Repräsentation betrifft, verändert sich am Verhalten von JavaScript durch diese Änderung nichts, es wird allerdings weniger Speicher benötigt, was auch zu einer Beschleunigung führen kann. Dies zeigt sich unter anderem im Sunspider-Benchmark für reguläre Ausdrücke, in welchem Firefox 33 um 36 Prozent besser abschneidet.

Off Main Thread Compositing für Windows-Nutzer

In Firefox 33 hat Mozilla das sogenannte Off Main Thread Compositing (OMTC) für Nutzer von Windows standardmäßig aktiviert. OS X-Nutzer haben OMTC bereits aktiviert, die Implementierung für Linux steht kurz vor der Fertigstellung. OMTC soll die Reaktionsfreudigkeit von Firefox verbessern, indem die Zusammenstellung verschiedener Layout-Ebenen aus dem Hauptthread ausgelagert wird. Schlecht geschriebener JavaScript-Code, welche lange zur Ausführung benötigt, wäre ein solcher Fall, der zu Verzögerungen in der Ausführung der Anwendung oder Pausierung von Videos führen kann, was durch OMTC verbessert werden soll.

Änderung von about:newtab

In Firefox 33 hat sich das Design von about:newtab ein wenig verändert und damit auch das Verhalten bei kleinen Fenstern. Bisher war es so, dass Firefox die Vorschaubilder bei Bedarf verkleinert und sich strikt an die beiden Einstellungen browser.newtabpage.columns sowie browser.newtabpage.rows zur Festlegung der Anzahl an Vorschaubildern gehalten hat. Ab einem gewissen Punkt musste auf dieser Seite gescrollt werden, um alle Vorschaubilder zu sehen. Firefox 33 sieht diese Werte nur noch als Maximalwerte, verkleinert die nun minimal größeren Vorschaubilder nicht mehr und zeigt weitere Vorschaubilder gar nicht erst an, wenn der Platz nicht ausreichend ist. Gescrollt muss auf dieser Seite durch diese Änderungen nun unter keinen Umständen mehr.

WebIDE kann getestet werden

Die WebIDE soll den App Manager ersetzen. Dies geschieht zwar noch nicht in Firefox 33, doch kann diese in Firefox 33 erstmals per about:config-Schalter (devtools.webide.enabled) aktiviert werden. Während sich der App Manager in einem Tab öffnet, ist die WebIDE ein eigenständiges Fenster, welches neben der bisherigen Funktionalität des App Managers auch das Erstellen neuer Apps erlaubt, hierfür werden sogar bereits Vorlagen mitgeliefert. Über den Options-Schalter devtools.webide.templatesURL kann die URL konfiguriert werden, von welcher die Vorlagen bezogen werden sollen. Auf diese Weise ist es möglich, ganz eigene App-Vorlagen zu benutzen und anderen bereitzustellen. Der dazugehörige Editor bietet Syntax Highlighting, Code-Vervollständigung und Inline-Dokumentation, womit dieses Feature dem Begriff IDE gerecht wird. Auch das App-Manifest wird direkt in der WebIDE validiert.

Weitere Verbesserungen für Webentwickler

Auch sonst haben die Entwickler-Werkzeuge natürlich wieder einige Neuerungen erhalten. Erwähnt sei hier ein “ev”-Schriftzug in der HTML-Ansicht des Inspektors, wenn ein Event Listener mit diesem DOM-Element verknüpft ist. Per Kontextmenü kann bei den CSS-Regeln im Inspektor ein neuer Regelblock für das ausgewählte Element hinzugefügt werden, was besonders dann praktisch ist, wenn dieses Element noch keine CSS-Regeln besitzt und darum bislang noch kein Selektor angezeigt wird, welcher dieses Element anspricht. Ebenfalls bearbeitet können hier nun auch @keyframes-Regeln werden. Auch die Selektoren selbst können nun in der Regeln-Ansicht bearbeitet werden, sofern der neue Selektor ein gültiger Selektor für das ausgwählte Element ist, andernfalls wird die Änderung verworfen. Per Rechtsklick auf eine Farb-Eigenschaft können jetzt Farbwerte kopiert werden. Ein Cubic Bezier Editor erlaubt das Bearbeiten von CSS-Animationen. CSS Transformationen werden nun beim Herüberfahren mit der Maus über das Element so dargestellt, dass neben dem transformierten Element auch die originale Position eingezeichnet und beides über Linien verbunden wird.

Die Entwickler-Einstellung zum Deaktivieren des Caches merkt sich Firefox nun auch, wenn die Entwickler-Werkzeuge zwischenzeitlich geschlossen waren. Die Entwickler-Toolbar (Shift + F2) hat neue Kommandos erhalten: inject erlaubt das Einbinden von Bibliotheken (z.B. inject jQuery), highlight erlaubt das Hervorheben aller Elemente mit einem bestimmten Selektor, folder erlaubt das Öffnen eines Ordners auf dem Dateisystem; folder openprofile öffnet das Profilverzeichnis von Firefox. Die Einstellungen der Entwickler-Werkzeuge bieten nun außerdem eine Reihe von Editor-bezogenen Einstellungen wie die Tabulator-Größe, ob Klammern automatisch geschlossen werden sollen oder welche Tastaturkommandos gelten sollen (Firefox Standard, Vim, Emac, Sublime).

Neu ist auch die Ergänzung der Farbe Rebeccapurple. Im Debugger werden JavaScript-Dateien, welche auf .min.js enden, nun automatisch stummgeschaltet, was sich per Einstellungsmenü allerdings deaktivieren lässt. Im Responsive Design Modus kann jetzt außerdem eine beliebige Größe direkt eingegeben werden. Die Webkonsole hebt Zeilen beim Herüberfahren mit der Maus nun hervor.

Verbesserte Unterstützung von Web-Standards

Zu den nennenswertesten Neuerungen an der Front der Webstandards gehören in Firefox 33 die Implementierung der CSS3 Counter Styles Spezifikation sowie des DOMMatrix-Interfaces. Mit Draft 13 wird ein neuerer Entwurf des kommenden HTTP/2.0-Standards unterstützt (standardmäßig noch deaktiviert; network.http.spdy.enabled.http2draft). Firefox unterstützt nun  <a rel=”noreferrer”>, allerdings funktioniert dies noch nicht für Links, welche via Kontextmenü geöffnet werden. Experimentell unterstützt wird das neue <picture>-Element (dom.image.picture.enabled). Die alte Nicht-Standard-Implementierung der Content Security Policy (CSP) wurde aus Firefox entfernt (Firefox unterstützt natürlich weiterhin den offiziellen Standard), ebenso entfernt wurden nicht standardisierte window.crypto-Funktionen und -Eigenschaften. Deren Funktionalität soll mittelfristig durch die Web Crypto API ersetzt werden, an deren Implementierung Mozilla derzeit noch arbeitet. Die Media Source Extensions unterstützen MP4, wenn neben aktiviertem media.mediasource.enabled auch noch der Boolean-Schalter media.mediasource.ignore_codecs mit Wert true angelegt wird. Im Mozilla Developer Network finden sich Informationen zu weiteren nicht länger unterstützten Nicht-Standards sowie unterstützten Standards ab Firefox 33.

Sonstige Neuerungen von Firefox 33

Firefox 33 erkennt nun fehlerhaft übertragene HTTP 1.1-Dateiübertragungen, was den Fehler behebt, dass unvollständige Downloads unter Umständen als vollständig angezeigt werden konnten, was auch das Fortsetzen betroffener Downloads verhinderte. Wie in jeder neuen Firefox-Version hat auch der integrierte PDF-Betrachter Verbesserungen erhalten, wobei in Firefox 33 vor allem erwähnt sei, dass dieser nun spürbar weniger Arbeitsspeicher bei der Anzeige von PDF-Dateien benötigen soll.

Der Abschnitt “Sicherheitsinformationen für diese Website” wurde aus dem Reiter “Allgemein” des Seiteninfo-Dialogs entfernt, da es einen ganz eigenen Sicherheits-Reiter gibt und dieser Abschnitt damit redundant ist. Beim Kopieren von Inhalten, die mit “javascript:” beginnen, in die Adressleiste entfernt Firefox automatisch das “javascript:”. Das Kontextmenü der Tab-Auflistung am rechten Ende der Tableiste bei vielen geöffneten Tabs besitzt einen neuen Eintrag, um das Schließen eines Tabs rückgängig zu machen. Die Seite about:support zeigt jetzt auch gesperrte Einstellungen an. Der Button mit der Aufschrift “Standard wiederherstellen” in der Ansicht zum Anpassen der Browseroberfläche platziert Buttons von Add-ons bei den nicht in der Oberfläche platzierten Buttons. Neu ist auch die Unterstützung der Verbindung zu HTTP-Proxies über HTTPS.

17. Oktober 2014

[openhab] Items mit Hilfe von Gruppen sortieren

Permalink itbasic

Wenn man in openhab mehrere Items anlegt zum Beispiel mehrere Lichtschalter fürs Wohnzimmer oder für die Weihnachtsbeleuchtung, empfiehlt es sich wegen der Übersichtlichkeit auf Gruppen zurückzugreifen.

Bevor die Gruppe genutzt werden kann, muss Sie über Group Gruppenname definiert werden. In der Item Konfiguration wird die Gruppe in runden Klammern angegeben.

Item Konfiguration:
Group flur
Switch Treppe "Im Fenster" (flur) {exec="OFF:/home/openhab/bin/flur.py 2 0,ON:/home/openhab/bin/flur.py 2 1"}
Switch Telefon "Telefon" (flur) {exec="OFF:/home/openhab/bin/flur.py 1 0,ON:/home/openhab/bin/flur.py 1 1"}

default.sitemap:
sitemap default label="Main Menu"
{
Frame label="Weihnachten"{
Group label="Weihnachten" icon="house" item=weihnachten
}
Frame label="Flur"{
Group label="Flur" icon="house" item=flur
}
Frame label="Wohnzimmer"{
Group label="Wohnzimmer" icon="house" item=wohnzimmer
}
}

Es ist auch möglich mehrere Gruppen Komma separiert anzugeben, somit kann ein Item in verschiedenen Frames aufgeführt werden.

16. Oktober 2014

POODLE: Der Pudel – und wie man ihn los wird

Permalink /var/pub/chris_blog

Download PDF

Seit einigen Tagen kursiert unter dem Namen POODLE eine weitere Sicherheitslücke im Internet, die vor allem Linux-Systeme betrifft. Wesentlich ungefährlicher als Heartbleed betrifft sie vor allem Web-Server, die die altertümlichen SSL-Generationen 2 und 3 zulassen. Aufgrund gravierender Sicherheitslücken dieser Protokolle ist es möglich den Datenverkehr zu entschlüsseln. Bei vielen Linux-Distributionen ist dies in der Standard-Konfiguration derzeit noch der Fall, weswegen Administratoren ihre Webserver absichern sollten. POODLE hat mittlerweile das CVE 2014-3566 erhalten, entdeckt wurde die Sicherheitslücke durch Google.
Um einen Webserver abzusichern genügt es die älteren Protokoll-Generationen zu deaktivieren. Bei Apache ist dies in der entsprechenden Konfiurationsdatei recht einfach zu bewerkstelligen:

#SSLProtocol All
SSLProtocol All -SSLv2 -SSLv3

Diese Direktive aktiviert alle SSL-Protokollversionen unter Ausschluss der 2. und 3.Generation.

Poodle Protector

Wenn man jedoch eine große Anzahl an Systemen verwaltet, bedeutet die manuelle Konfiguration der einzelnen Systeme unnötigen Mehraufwand, den man auch geschickt automatisieren kann. Da ich ein fauler Mensch bin, habe ich mir ein Skript programmiert, was automatisiert Apache-Konfigurationsdateien analysiert und anpasst, sofern der Indianer anfällig für die POODLE-Attacke ist. Das Skript (poodle_protector) ist auf GitHub zu finden: [klick mich!]

Das Skript kann auf Wunsch sogar den entsprechenden Dienst neustarten, was den Einsatz über ein zentrales Configuration Management (wie z.B. Red Hat Satellite, Spacewalk oder SUSE Manager) besonders komfortabel gestaltet.

Der folgende Aufruf analysiert das System und simuliert, welche Änderungen vorgenommen werden würden (dry-run):

# ./poodle_protector.py -l
I'd like to create a backup of '/etc/apache2/mods-available/ssl.conf as '/etc/apache2/mods-available/ssl.conf.20141016-1303' ...
I'd like to insert 'SSLProtocol All -SSLv2 -SSLv3' into /etc/apache2/mods-available/ssl.conf using the following command: sed -i '/SSLProtocol/ c\SSLProtocol All -SSLv2 -SSLv3' /etc/apache2/mods-available/ssl.conf ...
I'd also like to restart the service using: ['service httpd restart', 'service apache2 restart']

Der nächste Aufruf nimmt Änderungen an der Konfiguration vor (es werden vorher Sicherungen angelegt) und startet den Apache-Dienst neu:

# ./poodle_protector.py -r
httpd: unrecognized service
Restarting web server: apache2 ... waiting .

In diesem Beispiel wurde ein Debian-System verwendet, weswegen der httpd-Dienst nicht gefunden werden kann.

Download PDF

Synology DSM 5 -&gt; ownCloud 7.0.2 Installation

Permalink Linuxvoodoo – Thorstens Technikkruscht

Ein Kollege hat mich auf die Idee gebracht mir mal ownCloud anzuschauen.

In meinem Keller steht eine kleine Synology welche dafür wunderbar geeignet ist – dachte ich.

Also habe ich eine Synology Paketquelle hinzugefügt um das Synology Communitypaket für Synology herunter zu laden. Leider stellte sich heraus das das Communitypaket weder aktuell die Version 7 (7.0.2) installiert, noch das es einwandfrei “out-of-the-box” arbeitet. Scheinbar wird ein Pfad benutzt welcher nicht durch den Webdienst beschrieben werden darf, das ist sicher leicht änderbar, dann bleibt aber noch das “Problem” mit der veralteten Version die gerade mal mit ownCloud 5.0.11 daherkommt.

synology_owncloud

synology_owncloud_fehler

Nach etwas rumsuchen bin ich über einen Beitrag bei www.kussaw.de gestolpert der einen interessanten Ansatz für die ownCloud Installation wählt. Er schlägt vor die ownCloud Installation über den Webinstaller von ownCloud durch zu führen da ownCloud ja auch einen eigenen Updatemechanismus beinhaltet. Für mich eine sehr gute Alternative, also wurde das mal ausprobiert.

Ich beschreibe also in diesem Post die Installation von ownCloud 7.0.2 auf einer Synology mit DSM 5.0-4493 Update 5.

Ich gebe aber keine Garantie darauf das nach einer Aktualisierung der DSM Version die ownCloud OOB wie vorher funktioniert! -> Darauf bin ich selbst gespannt…

Natürlich gibts von mir auch keine Garantie wenn ihr euch eure DSM auf der Kommandozeile zerschießt!

Unsere Diskstation benötigt:

  • Paketzentrum -> phpmyadmin Paket (für ownCloud Installation mit mysql)

phpmyadmin

  • Systemsteuerung -> Webdienst -> Web Station aktivieren
  • Systemsteuerung -> Webdienst -> Https-Verbindung für Webdienste aktivierenhttps
  • (optional) Systemsteuerung -> Sicherheit -> Zertifikat -> Zertifikat erstellen
    zertifikatOptional kann man sich auch ein neues eigenes Zertifikat erstellen. Was ich hier auch durchgeführt habe.
  • Falls noch nicht geschehen braucht man noch einen SSH Zugang (oder FTP falls einem das lieber ist) zu seiner Diskstation. Ich arbeite hier per SSH.
    ssh synology

Einloggen per SSH auf der Synology:

ssh root@synologyname

Als root Passwort wird euer Administratorpasswort akzeptiert.

Ich lege mir im http-Verzeichnis der Synology einen neuen Ordner an und lade den ownCloud Webinstaller in das Verzeichnis:

$> mkdir -p /volume1/web/owncloud
$> cd /volume1/web/owncloud
$> wget https://download.owncloud.com/download/community/setup-owncloud.php

Das aktuelle Paket zur ownCloud bekommt ihr immer unter http://owncloud.org/install/ -> “Archive File”

Anschließend mit dem Browser das Installationspaket aufrufen -> “https://<synologyname>/owncloud/setup-owncloud.php”

ownCloud_setup

Die Installation ist nun recht selbsterklärend mit dem Wizard durchzuführen. Da ich ja bereits einen Unterordner manuell erstellt hatte lege ich keinen neuen mehr an sondern bestätige das aktuelle Verzeichnis mit “.” wie vorgeschlagen.

Im ownCloud Setup wird anschließend der Administrative Zugang angelegt sowie das Verzeichnis indem die Daten anschließend gespeichert werden die in unsere “Cloud” übertragen werden.
Die Datenkbank für ownCloud wird in diesem Schritt ebenfalls angelegt. Das erledigt man mit dem MySQL root User dem wir über phpmyadmin im Vorfeld ein PW vergeben haben:

ownCloud mysql

Anschließend wird die Installation beendet. Bei mir kam es hier zu einem http Error. Nachdem ich aber im Browser einmal zurück bin konnte ich mich das erste Mal bei ownCloud anmelden.

Beim ersten Mal anmelden an ownCloud muss man noch das https Zertifikat bestätigen und in die ownCloud Liste für akzeptierte Zertifikate aufnehmen! Der Schritt ist aber eigentlich selbsterklärend.

Zwei Hürden haben mich dann noch beschäftigt.

1. Schreibberechtigung für http

Damit man Dateien hochladen kann muss man dem http Benutzer der Synology noch schreibeberechtigungen auf das Verzeichnis geben. (Damit wären wir eigentlich wieder bei dem ersten Problem mit dem Synology Community Paket ;-) )

$> chmod 775 /volume1/web/owncloud
$> chown root:http /volume1/web/owncloud

Ich regel das über die Gruppenrechte.

2. PDF Dateien können nicht dargestellt oder heruntergeladen werden

Bei .pdf Dateien gibt es direkt nach der Installation der ownCloud beim öffnen oder herunterladen folgende Fehlermeldung:

ownCloud pdf

Eine Lösung dazu fand ich hier im ownCloud Forum. Wobei das nicht wirklich intuitiv ist. In die folgende Konfigurationsdatei unseres httpd komme eine Zeile hinzu. Ich erkläre die Schritt. Auf der Synology per SSH:

$> vi /etc/httpd/conf/extra/mod_xsendfile.conf-user

Hinzufügen der Zeile “XSendFilePath /volume1″ mit dem Editor vi.

Meine Datei mod_xsendfile.conf-user sieht nach dem editieren folgendermaßen aus:

LoadModule xsendfile_module modules/mod_xsendfile.so
    XSendFile on
    XSendFilePath /var/services/web /var/services/homes
    SetEnv MOD_X_SENDFILE_ENABLED yes
    XSendFilePath /volume1

Anschließend muss der http Dienst noch durchgestartet werden:

$> httpd -k restart

Nach der Aktion kann man PDF Dateien sowohl öffnen als auch herunterladen.

Viel Spass mit eurer ownCloud!

Aus Ubuntu hat sich auch der Zugriff über WebDav als sehr praktisch erwiesen. Ich habe mir dazu einfach eine Favorite in Nautilus gebaut:

davs://username@Hostname/owncloud/remote.php/webdav

Mit den richtigen Vorbereitungen funktioniert das auch wunderbar von extern. (dyndns, fritz, myds Dienst usw. vorausgesetzt bzw. https Port Weiterleitung auf die Synology)

Fast doch (m)ein Desktop: Der Gnome-Shell eine Chance

Permalink Pinguinzubehör

Die Gnome-Shell ist mit dem Ziel angetreten, den Nutzern so viel Arbeit wie möglich abzunehmen, es dem Linuxanwender so einfach wie möglich zu machen, den PC zu bedienen. Paradoxerweise führt gerade diese Politik dazu, dass die Bedienung komplizierter wird und mehr Arbeit verursacht. Dabei hat die Shell viel Potential, ist für die Benutzer, die schon mal etwas anderes als Gnome kennengelernt haben, ohne Erweiterungen jedoch kaum erträglich. Die Fortsetzung unseres kleinen Gnome-Schwerpunkts mit einer Gegenüberstellung der Vor- und Nachteile der Gnome-Shell, die Shell im Alltagseinsatz unter die Lupe genommen.

Extended Desktop

Gnome hat die ehemals breite Nutzerbasis seinem neuen Konzept geopfert. Ob die alten Fans zurückkehren, ist fraglich, ob genügend neue zu Gnome finden, auch. Bei manchen Distributionen wird die Gnome-Shell gerade mal so häufig nachgefragt wie die Exoten Fluxbox oder Enlightenment und rangiert weit abgeschlagen hinter KDE und Cinnamon. Doch Gnome hält Kurs und zieht das eigene Konzept durch, was mutig und anerkennenswert ist, denn es besetzt damit immerhin eine Nische, denn einen derartigen Ansatz verfolgt sonst kein anderer Linux-Desktop.

Zum Massendesktop wird Gnome damit nicht mehr werden, es spricht mit der Shell nun kurioserweise eher die Fenstermanager-Fans, die Liebhaber des Minimalismus an. Die großen, auf den Desktop-Einsatz zielenden Distributionen verwenden keine Gnome-Shell mehr als Standard. Opensuse und Mageia favorisieren KDE, Ubuntu Unity und Linux Mint Cinnamon. Sogar das Unternehmens-Linux der Fedora-Mutter Red Hat spricht sich gegen die reguläre Shell aus. Allein Fedora und Debian halten die Gnome-Shell-Fahne noch hoch, wobei auch Letzteres fast fahnenflüchtig zu werden drohte.

Die gerade erscheinende Version 3.14 bringt weitere Verbesserungen, aber vor allem in der Optik. Bedientechnisch hat sich an der Shell nichts Wesentliches verändert, am Grundkonzept bleibt alles, wie es ursprünglich gedacht war. Die Shell will dem Nutzer die Arbeit abnehmen, setzt auf intuitive Bedienung – und macht es fortgeschrittenen Usern mit speziellen Wünschen damit umso schwerer. Die Shell wirkt so, als würde sie so sein wollen, wie man sich früher die Computer von morgen vorgestellt hat. Sie macht genau das, was der Nutzer will, ohne dass dieser noch großartig Befehle formulieren muss. Das allerdings geht dann schief, wenn der Nutzer etwas anderes möchte, als die Entwickler vorhergesehen haben, denn das Zukunfts-Gnome kann eben letztlich doch keine Gedanken lesen.

Die Standard-Gnome-Shell erfordert zunächst viel Umgewöhnung. So viel, dass man schnell geneigt ist, aufzugeben, wenn die typischen Handgriffe nicht mehr funktionieren. Doch das Konzept ist durchdacht. Nichtsdestoweniger passt es nicht auf jeden Workflow. Dann hat man mehrere Möglichkeiten. Entweder man nimmt gleich eine andere Oberfläche, man nutzt den Classic-Modus der Shell, der etwas näher an der traditionellen Bedienung ist – oder man ergänzt sich die Shell ganz individuell mit Erweiterungen. Das kann sich lohnen, denn neben aller Kritik bietet die Gnome-Shell ein durchaus innovatives Konzept und hat einige Vorzüge.

Glückliches GnomeWas gefällt:

• Die Optik. Mit Adwaita, das ab Version 3.14 auch das alte Raleigh-Notfall-Aussehen in Gestalt des Windows-Classic-Looks ersetzt, ist Gnome wieder ein Glanzlicht gelungen. Frisch, aber dabei ergonomisch bleibend, keine Experimente wagend wie etwa Ubuntu mit fast nicht mehr sichtbaren Scrollbalken, die nur bei Bedarf breiter werden. Die Gnome-Designer scheinen elegantes Design stets abonniert zu haben.

• Dezente Effekte. Der dezente Einsatz von Animationen und Schatten bringt genau die richtige Portion an optischen Effekten, so dass diese die Bedienung unterstützen und nicht stören.

• Automatische Arbeitsflächenverwaltung. Die Gnome-Shell ist die erste Linuxoberfläche, die die Verwaltung der Arbeitsflächen standardmäßig automatisiert ablaufen lässt. Es ist immer ein Desktop frei, wenn man einen neuen brauchen sollte, wenn der aktuelle schon wieder vollgefenstert ist.

• Konsequente Übernahme des Dockkonzepts. Linus Torvalds hat sich zwar fürchterlich aufgeregt, es entspricht jedoch absolut dem Vorbild aus Mac OS X bzw. Nextstep – ein Klick auf das Programmsymbol erzeugt kein neues Fenster derselben Anwendung, sondern bringt alle zum spezifischen Programm gehörenden Fenster in den Vordergrund, wenn die Anwendung bereits läuft.

• Einzigartigkeit. Nicht zuletzt ist die Gnome-Shell mal etwas typisch Eigenes für Linux, nicht der zwanzigste Abklatsch von Windows- oder Mac-Oberflächen. Die Gnome-Entwickler zeigen hier Mut, auch innovativen Konzepten nicht nur eine Chance zu geben, sondern sie auch gegen alle Widerstände durchzusetzen.

Was nicht gefällt:

• Schwächen im Dockkonzept. Ein Mittelklick führt zwar zum gewünschten neuen Fenster, öffnet es aber auf einem neuen Desktop. Nur mit Strg und Klick bekommt man das zweite neue Fenster auf die aktuelle Arbeitsfläche, braucht also stets Tastatur und Maus, um ein neues Fenster auf den sichtbaren Schirm zu bekommen.

Unglückliches Gnome

• Desktop-Icons. Es gibt im Shell-Konzept standardmäßig keine Desktop-Icons auf der Arbeitsfläche. Der viele Monitorplatz wird verschwendet. Dateisymbole lassen sich in den erweiterten Einstellungen allerdings ganz fix wieder einschalten.

• Verschwundene minimierte Fenster. Minimierte Fenster tauchen im Übersichtsmodus nicht mehr auf; um ein minimiertes Fenster wiederzufinden, muss man es über das Dock suchen. Das hat auch damit zu tun, dass Minimieren im Konzept der Shell eigentlich gar nicht mehr vorgesehen ist, manche Distributionen wie Fedora es aber standardmäßig wieder in den Fensterknöpfen aktiviert hatten. Eine arbeitsflächenübergreifende Fensterliste fehlt. Umso ärgerlicher, weil die Gnome-Shell zum ausgiebigen Verteilen der Programme auf neue Arbeitsflächen verführt. Ein Workaround besteht z.B. in der Installation des Minimized-Window-Reminders.

• Fehlendes permanentes Dock. Ungewöhnlich ist auch, dass das Dock nicht standardmäßig sichtbar oder zumindest in der Hauptebene erreichbar ist, ohne den Übersichtsmodus aufrufen zu müssen. Erst die Windows-Taste drücken zu müssen oder die linke obere Ecke anzusteuern, um dann das Dock wieder nach unten abfahren zu müssen, sorgt für nervende Mauswege. Mit der passenden Erweiterung lässt sich das Dock in die oberste Ebene holen – bringt allerdings neue Probleme mit sich, wenn gleichzeitig Icons auf dem Desktop liegen – diese sind dann nicht mehr erreichbar.

• Keine Favoritenleiste im Panel. Es fehlt ein schneller Zugriff auf die Dateimanager-Lesezeichen, ohne erst ein Dateimanager-Fenster aufrufen zu müssen. Mit der Erweiterung Places Status Indicator lässt sich ein Lesezeichenmenü in die Standardleiste integrieren.

• Kein Schnellzugriff auf Dateien. Das schnelle Erreichen eigener, oft genutzter Dateien fehlt ebenso wie ein Verlauf. Die Funktion einer History lässt sich mit einer Erweiterung nachrüsten, auch für Standarddateien gibt es eine solche.

• Fehlender Desktopindikator. Man sieht außer im Übersichtsmodus nicht, auf welcher Arbeitsfläche man sich gerade befindet. Die Erweiterung Workspace Indicator schafft Abhilfe. Damit wird dann zugleich auch der schnelle Desktopwechsel mit der Maus möglich, für den man sonst ebenfalls erst in den Übersichtsmodus schalten muss.

• Die Leiste. Die schwarze Leiste am oberen Rand, das Panel, das eigentlich keins mehr sein soll und nur durch Erweiterungen zu einem solchen wird, ist relativ nutzlos, und wird im Betrieb eigentlich für nichts weiter gebraucht, als die Uhrzeit anzuzeigen. Das hätte man auch platzsparender hinbekommen. Um sie auszublenden, braucht man ebenfalls eine Erweiterung.

• Nicht intuitiver Übersichtsmodus. Die Exposé-Ansicht im Übersichtsmodus skaliert zu starr, denn vorhandene Fenster werden im Übersichtsmodus alle auf dieselbe Höhe skaliert. Kleinere Fenster wirken dadurch größer und Vollbildfenster wirken im Verhältnis viel kleiner. Das erschwert das intuitive Erfassen und Wiederfinden eines Fensters. Sind viele Fenster offen, sehen sie außerdem irgendwann alle fast gleich aus – und dann muss man die Titelzeilen bewusst lesen, um ein Fenster zu identifizieren.

• Zusätzliche Schikanen beim Dateilöschen. Dateien können nicht mit der Entfernen-Taste in den Mülleimer gelegt werden, es braucht zwingend die Tastenkombination Strg+Entf. Wer regelmäßig zwischen verschiedenen Systemen wechselt, verzweifelt.

• Der Weißraum. Was optisch super ist, hat leider funktionale Nachteile. Für die Touchbedienung sicher nützlich, doch mit der Maus macht es keinen Spaß mehr. Im Dateimanager muss mehr gescrollt werden, Menüs werden länger, und damit auch die Mauswege. Wo eigentlich ein kleiner Schubser reichen sollte, um einen Menüeintrag anklicken zu können, muss stattdessen über den halben Bildschirm gefahren werden. Auf kleinen Bildschirmen wirkt alles übertrieben klobig und zwingt auf Notebooks praktisch fast schon zum permanenten Arbeiten im Vollbildmodus.

• Alt+Tab-Verhalten. Das Tastenkürzel Alt-Tab zum Wechseln zwischen offenen Fenstern wurde aufgeteilt auf verschiedene Tastenkombinationen, standardmäßig wechselt man nun zwischen Programmen, nicht mehr zwischen Fenstern. Das ist durchdacht und innovativ, aber unpraktisch, weil man in der Regel nicht darüber nachdenkt, ob man zwischen Fenstern oder Anwendungen wechseln möchte, sondern oft einfach intuitiv zum vorherigen Fenster zurückkehren will. Auch springt Alt+Tab ggf. zwischen Anwendungen auf verschiedenen Arbeitsflächen hin und her, was die Sache noch verwirrender macht. Mit einer Erweiterung ist das alte Verhalten zwar wiederherstellbar, doch es gibt weiterhin keine Möglichkeit, das Wechseln auf eine virtuelle Arbeitsfläche zu beschränken, man springt dann munter zwischen allen virtuellen Desktops hin und her.

• Nichtzulassung eigener Startbefehle. Die Zuweisung der Standardanwendungen funktioniert nicht optimal; wenn Programme nicht in der Vorauswahl auftauchen, gibt es keine Möglichkeit, sie mit einem individuellen Befehl aufzurufen, es muss notfalls erst ein entsprechender Starter gebastelt werden.

• Schüchternes Nautilus. Über Tastenkürzel direkt aufgerufene Verzeichnisse öffnen sich in Nautilus nicht im Vordergrund, sondern stets hinter anderen vorhandenen Fenstern. Stattdessen taucht die Meldung „Dateien ist bereit“ auf.

• Arbeitsflächenverwaltung nicht konfigurierbar. Das automatische Hinzufügen von neuen Arbeitsflächen lässt sich entweder aktivieren oder ganz abschalten. Nutzt man z.B. zusätzliche Programme wie Devilspie, um Fenster automatisch auf verschiedene Arbeitsflächen zu verteilen, funktioniert das nicht richtig, wenn man noch gar keine Fenster geöffnet hat – und daher nur ein Desktop bereitsteht: Ruft man ein Programm auf, das eigentlich auf Desktop 2 landen sollte, öffnet es sich auf Arbeitsfläche Nr. 1. Andersherum, wenn wiederum alle Anwendungen auf Desktop 1 geschlossen werden, rutschen die auf Desktop 2 geparkten Fenster automatisch auf den ersten Desktop. Das erinnert in der Handhabung ein wenig an die kafkaesken Menüs, die zu Windows98-Zeiten der große Renner bei Microsoft waren, aber aus gutem Grund recht schnell wieder beerdigt wurden (in den Menüs waren nur häufig benutzte Einträge sichtbar, die seltener benötigten wurden nach und nach ausgeblendet, im Ergebnis befanden sich die Einträge immer an unterschiedlichen Positionen, intuitives Ansteuern wurde unmöglich). Bei der Gnome-Shell sind es nun die Fenster, die nie da sind, wo man sie eigentlich erwartet. Die Idee ist gut, beim Knappwerden von Arbeitsfläche neue Desktops anzulegen, aber Fenster automatisch dorthin zu verschieben oder Arbeitsflächen ohne Rückfrage wieder zu entfernen, wenn das letzte Fenster geschlossen wurde, nervt unendlich und müsste konfigurierbar sein.


Idee und Montage: „orc“

• Funktionsreduzierung bei Programmen. Das Terminal verlor die Transparenz, Nautilus die geteilte Ansicht, die Embleme und die Baumnavigation in der Seitenleiste. Die Autostarteinstellungen werden entfernt.

• Tastenkürzel funktionieren nicht im Übersichtsmodus. Wenn man feststellt, dass das gesuchte Programm nicht bereits ausgeführt wird, muss man den Modus erst wieder verlassen, um das Programm per Kürzel starten zu können. Ein Workaround ist nicht bekannt.

Es gibt für alles eine Lösung

Die Auflistung der Negativpunkte ist überraschend lang, zeigt aber auch, dass sich die bemängelten Punkte durch Erweiterungen fast vollständig beheben lassen. Mit einem Sack voller Ergänzungen und der Anpassung der Grundeinstellungen kann man sich die Shell so zurechtbiegen, dass sogar traditionelle Desktoparbeit damit wieder möglich wird oder dass sie sich fast so verhält wie andere Oberflächen oder eben das alte Gnome (was die Gnome-Leute auch selbst mit der Gnome-Classic-Sitzung anbieten, indem einige der hier genannten Erweiterungen standardmäßig integriert und aktiviert werden).

Doch dann kann man auch gleich einen anderen Desktop nehmen und spart sich die Nachrüstung und Inkonsistenzen, die zwangsläufig entstehen, wenn versucht wird, ein originäres Konzept wieder in ein anderes zurückzuverwandeln. Dieser Aufwand steht kaum im Verhältnis zum Ergebnis, der Wechsel zu einer alternativen Umgebung wie KDE, XFCE, Mate oder Cinnamon drängt sich dann geradezu auf. Denn auch wenn sich viel mit Erweiterungen nachrüsten lässt, entstehen doch gerade dadurch gleich zwei neue Nachteile:

• Verteilte Einstellungen. Die Installation auch simpler Erweiterungen führen das Konzept der unnötigen Konfiguration vollends ad absurdum. Bereits in einem erweiterungslosen Gnome muss man ggf. Einstellungen an vier (!) verschiedenen Orten vornehmen: in den normalen Einstellungen, in den erweiterten Einstellungen (Tweak Tool), im Konfigurationseditor und in allgemeinen Systemkonfigurationsdateien. Dazu kommen dann noch weitere Einstellungen für die Erweiterungen, die von den Erweiterungen selbst an allen möglichen Orten des Systems verteilt werden, im Tweak Tool, in Leisten oder sonstwo. Das Auffinden wird zum Suchspiel.


Diese Erweiterung baut die Einstellungen in das Abmeldemenü ein.

• Fehlende Updatesicherheit. Sofern man auf Erweiterungen setzt, kommt hinzu, dass nicht alle Erweiterungen auch stets für alle Versionen der Shell im Angebot sind. Erweiterungen verwaisen und die Funktionalität geht verloren, wenn sich niemand findet, der die Wartung übernimmt. Die Gnome-Erweiterungsseiten sind voll von Hilferufen der Nutzer, bestimmte Erweiterungen doch auch für aktuellere Gnome-Shell-Versionen lauffähig zu machen. Es wächst ein Ökosystem innerhalb der Gnome-Shell heran, das äußerst zerbrechlich ist. Nur wenige Erweiterungen wurden direkt in die Shell integriert. Und dass Gnome-Shell-Anwender Erweiterungen brauchen, scheint eher die Regel als die Ausnahme zu sein.

Jetzt aber Schluss mit dem Gnome-Bashing

Auch wenn dieser Eindruck entstehen mag: Nicht alles muss man bei der Gnome-Shell nachrüsten, manche Konventionen findet man auch in der Shell weiterhin. So funktioniert Alt+F2 zum Aufrufen eines Befehl-ausführen-Dialoges, der Mittelklick auf einen Fenstertitel oder in den Bereich des neuen Globalmenüs bringt das Fenster in den Hintergrund. Die Shell leistet sich sogar Redundanz, z.B. bräuchte es den Übersichtsmodus mit verkleinerten Fenstern gar nicht, wenn man doch schon das Dock auf der linken Seite hat. Sogar das Anlegen eigener Tastenkürzel ist ohne Zuhilfenahme von Drittsoftware möglich. Aber wie lange noch? Die Unsicherheit über den Funktionsumfang wird zum bestimmenden Faktor bei der Gnome-Shell-Entwicklung.

Manches lässt sich jedoch selbst mit Erweiterungen nicht beheben. Die Mauswege sind generell zu lang, die Shell unübersehbar auf Tastaturbedienung hin getrimmt und dahingehend wenig flexibel. Das große Grundkonzept der unbedingten Reduzierung macht alles irgendwie umständlich, und die vielen kleinen Merkwürdigkeiten die Shell in der Summe aufwändig. Der Funktionsausbau lässt die Shell für so manchen Anwender sogar indiskutabel werden, da hilft dann auch kein Classic-Modus weiter, der prinzipiell einige der Kritikpunkte aufzufangen vermag. Durch den forcierten Minimalismus wird alles komplizierter – komplizierter, als eine von vornherein weniger spartanische Shell je sein könnte.


Dieser Artikel ist Bestandteil der „Not my Desktop“-Reihe.
Bereits erschienen:

Wird GNOME wieder zum Zwerg?
Eine Woche Gnome 3: Der uniformierte Desktop
Strategien zur GNOME-3-Vermeidung
Gnome-Shell – es wird immer unübersichtlicher
Endlich: Gnome rudert zurück
Die Gnome-Shell macht auf alt
Die Tragik der Gnome-Shell
Der Gnome-Shell eine Chance

15. Oktober 2014

Zentrale rsnapshot Backups ohne SSH root Login

Permalink Finns Blog

Ich habe ja bereits erwähnt, dass ich rsnapshot für den Großteil meiner Backups verwende. Die Vorteile sehe ich in der effizienten Dateiübertragung mit rsync und in der Möglichkeit, auch ältere Backups bzw. Snapshots aufzuheben, die dann nach und nach rotiert werden. Durch die Verwendung von Hardlinks ist der Platzbedarf für ältere Snapshots meist nur sehr gering. Möchte man rsnapshot allerdings an einer zentralen Stelle ausführen, ergibt sich ein Problem.

Da man in der Regel nicht nur Dateien eines einzelnen Benutzers sichern möchte, lässt man meist den root Benutzer die Backups durchführen. Genau hier liegt das Problem, falls man per SSH sichern möchte, denn das würde SSH Zugriff für den Root-Benutzer erfordern. Bisher habe ich eine Alternativlösung verwendet:
Ich habe eine Freigabe des entfernten Backup-Servers in das lokale Dateisystem gemounted und das 

snapshot_root
  Verzeichnis entsprechend konfiguriert, so dass die Snapshots dort gesichert werden.

Es ist zwar bei kleinen Umgebungen nicht dramatisch schlimm, aber diese Methode erfordert eine rsnapshot-Installation pro Server, den man sichern möchte. Im Prinzip lässt sich ein entferntes Verzeichnis mit rsnapshot per SSH mit folgender Zeile in der Konfiguration einfach bewerkstelligen:

backup    root@mein-server.local:/home/    mein-server.local/

Kürzlich bin ich nun über eine Lösung gestolpert, einen anderen Benutzer als root für das SSH Login zu verwenden und trotzdem keine Berechtigungen oder Gruppenzugehörigkeiten anpassen zu müssen. Die Lösung ist tatsächlich sehr simpel, nämlich:

sudo
.

Voraussetzung ist ein üblicher Benutzer, mit dem man sich per Schlüsselverfahren anmelden kann. Ich habe dazu auf meinem Server einen Benutzer backup angelegt und den SSH Public Key meines root Benutzers in die 

/home/backup/.ssh/authorized_keys
  eingefügt. Nach einem Test der eigentlichen Verbindung wird visudo aufgerufen, um zwei Zeilen zu ergänzen:
Defaults:backup    !requiretty
backup ALL=NOPASSWD: /usr/bin/rsync

Hiermit darf der Benutzer backup rsync mit root-Rechten per sudo aufrufen, was an sich auch nicht völlig harmlos, mir aber trotzdem lieber als ein SSH-Root-Login ist. Der Trick besteht nun darin, rsync remote mit sudo aufzurufen, damit der backup-Benutzer ausreichende Rechte hat, alle Dateien zu sichern. Hierzu erstellt man auf dem zu sicherenden Server im Home-Verzeichnis des Backup Benutzers die Datei rsync-wrapper.sh mit dem Inhalt und macht diese anschließend ausführbar (

chmod +x rsync-wrapper.sh
 ):
#!/bin/bash
/usr/bin/sudo /usr/bin/rsync "$@";

In der rsnapshot-Konfiguration ergänzt man nun folgende Zeile:

rsync_long_args -ev --rsync-path=/home/backup/rsync-wrapper.sh

Eine Backup-Zeile für ein zu sicherndes Verzeichnis sieht aus wie das oben genannte Beispiel, nur anstelle des root-Benutzers wird nun der backup-Benutzer verwendet:

backup    backup@mein-server.local:/home/    mein-server.local/

Falls jemand überlesen hat, woher ich diese Idee habe, der schaut bite hier nach.

Red Hat Enterprise Linux 6.6 veröffentlicht

Permalink /var/pub/chris_blog

Download PDF

Gestern hat Red Hat mit der Version 6.6 ein weiteres Update des Major-Releases 6 von Red Hat Enterprise Linux veröffentlicht. Wie bei bisherigen Minor-Updates wurden hier zahlreiche Verbesserungen und einige „Technical Previews“ implementiert.

Die Änderungen wurden ausführlich in den Release- und Technical Notes dokumentiert:

Neben den üblichen Kernel Treiber-Updates wurden einige weitere interessante Anpassungen vorgenommen, auf welche ich eingehen möchte (eine Auswahl):

  • Installation als Hyper-V Generation 2 VM – z.B. unter Windows Server 2012 R2 (*), beinhaltet auch neue Hyper-V Daemons: Hyper-V KVP (Hyper-V Key Value Pair) Hyper-V VSS (Hyper-V Volume Shadow Copy Service)
  • Verbesserte Unterstützung zusätzlicher SCSI-Signale zur besseren Reaktion auf Hardware-Veränderungen durch udev (z.B. Größenveränderung, Thin-Provisioning-Status, Hinzufügen neuer LUNs,…)
  • Einführung eines Open vSwitch Moduls für zusätzliche Red Hat-Produkte, Support wird ausschließlich in Zusammenhang mit weiteren Red Hat-Produkten geleistet
  • Für Device Mapper wurde ein Caching-Modul (dm-cache) eingeführt (*), mithilfe dieses Moduls können schnellere Laufwerke (z.B. SSDs) als Cache für langsamere Speichermedien dienen – Details sind in der lvmcache Manpage zu finden
  • Die Software-Pakete keepalived und haproxy werden nun vollständig vom Support abgedeckt
  • OpenJDK 8 Java Runtime Environment optional installierbar (*)
  • Windows 8-zertifizierte Touchscreens werden nun durch hid-multitouch unterstützt
  • Red Hat Enterprise Linux 6.6 ist nun nach NSS FIPS-140 Level-1 zertifiziert
  • System Security Services Daemon (SSSD) wurde für bessere Authentifizierung mit Microsoft Active Directory optimiert
  • gdisk – neues Tool zur GPT-Partitionierung, „Look and feel“ sind stark an fdisk angelehnt
  • rsyslog7 – neue, überarbeitete rsyslog-Version mit verbesserter Verschlüsselung und externen Datenbank-Support (MySQL, PostgreSQL,…). Es wird empfohlen, eine Migration auf diese Version vorzunehmen

(*) = technische Vorschau

Red Hat Enterprise Linux 6.6 steht ab sofort jedem Red Hat-Kunden mit gültiger Subscription zur Verfügung.

Download PDF

SSLv3 - Dank POODLE Geschichte?

Permalink coa.cx

Was ist POODLE?

Poodle steht für Padding Oracle On Downgraded Legacy Encryption. Entdeckt und veröffentlicht wurde das Problem vom Google Security Team.
Eine gelungene Zusammenfassung finden man bei Golem:
Das Problem ist wie schon bei vielen früheren Sicherheitslücken im SSL-Protokoll die Verschlüsselung im CBC-Modus und das dazugehörige Padding. Das Padding in der alten SSL-Version hat allerdings eine Besonderheit: Es kann beliebigen Inhalt haben, was sich mit einigen Tricks für den Poodle-Angriff ausnutzen lässt. Mit Hilfe von Javascript-Code, der in eine beliebige HTTP-Verbindung eingefügt wird, kann ein Angreifer eine Man-in-the-Middle-Attacke durchführen. Damit kann der Angreifer an geheime Informationen gelangen, die über mehrere Verbindungen vorhanden sind, beispielsweise HTTP-Session-Cookies, die nur verschlüsselt übertragen werden.

Wie schütze ich mich dagegen?

Sehr einfach. Im folgenden habe ich Ratschläge aufgelistet die man derzeit beachten sollte, bevor alle Browser gefixt sind.

Hier kann man seinen Browser auf Anfälligkeit testen: Poodle Test

Chromium
grep Exec /usr/share/applications/chromium-browser.desktop 

Exec=chromium-browser %U
Exec=chromium-browser
Exec=chromium-browser --incognito
Exec=chromium-browser --temp-profile
Alle Zeilen darin müssen mit `--ssl-version-min=tls1` erweitert werden.
Exec=chromium-browser --ssl-version-min=tls1 %U
Exec=chromium-browser --ssl-version-min=tls1
Exec=chromium-browser --incognito --ssl-version-min=tls1
Exec=chromium-browser --temp-profile --ssl-version-min=tls1
Chrome
Das Vorgehen ist identisch mit dem von Chromium, mit dem Unterschied das der Pfad der Datei `/usr/share/applications/google-chrome.desktop` lautet.
Firefox
Sollte dieser beim test durchfallen, muss man in die erweiterte Konfiguration:
about:config
security.tls.version.min;1
Man sucht also nach security.tls.version.min und setzt den Wert auf `1`.
NginX
Im Server Abschnitt wird folgendes festgelegt:
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
Danach selbstverständlich neu starten.
Apache
Global wird SSL in `/etc/apache2/mods-available/ssl.conf` konfiguriert. Hier wird SSLv3 wie folgt deaktiviert:
SSLProtocol All -SSLv2 -SSLv3
Auch hiernach genügt ein Neustart und man hat historische Versionen hinter sich gelassen.

14. Oktober 2014

Raspberry Pi mit Windows PC direkt verbinden – Gastbeitrag

Permalink Intux

Manchmal ist es nicht möglich den Raspberry Pi über ein Netzwerk mit einem PC über das Netzwerk zu verbinden. Will man aber trotzdem auf den Raspberry zu greifen, um z. B. ein Skript auszuführen, dann hat man nicht allzu viele Möglichkeiten.

Im Internet findet man nicht wirklich viel zu dieser Thematik. Es gibt hierbei jedoch einige Lösungsansätze den Mini-Computer über ein Cross-Over Kabel direkt mit dem PC zu verbinden. Die Verwendung eines Cross-Over Kabels ist bei dem Raspberry Pi Modell B jedoch nicht zwingend erforderlich, da dieses Modell Auto-MDI-X beherrscht, wobei die Anschlüsse elektronisch vertauscht werden.

Um das Ganze zu realisieren bedarf es aber einer gewissen Vorbereitung, um den RasPi später mit einem Windows-PC direkt zu verbinden.

Zuerst muss man jedoch den Pi über ein vorhandenes Netzwerk mit dem Computer (in diesem Fall ein Windows-PC) verbinden.

Über den PC greift man auf das Raspberry Pi Terminal zu.

Nun trifft man folgende Einstellungen am Raspberry und gibt als erstes nach dem Login:

sudo nano /etc/network/interfaces

ein. Danach landet man im Nano-Editor und gibt folgendes ein bzw. ändert man folgende Angaben:

iface eth0 inet static
address 192.168.XXX.XXX //am besten die IP-Adresse die der Pi schon hat
netmask 255.255.255.0
gateway 192.168.XXX.XXX //GATEWAY VOM ROUTER (gleiche Gateway wie beim PC eintragen)

Wenn man das erledigt hat, dann den Editor mit Ctrl + x schliessen und mit “j” bzw. “Y” abspeichern und Raspberry mit

sudo reboot

neu starten.

Am PC trifft man folgende Einstellungen:

Zuerst geht man unter Windows in die Systemsteuerung, dann Netzwerk und Internet->Netzwerk- und Freigabecenter und dann in der linken Spalte steht dann Adaptereinstellungen ändern.

  1. Den zuständigen Adapter für LAN mit einem Rechtsklick auswählen und auf Eigenschaften klicken
  2. Das Internetprotokoll Version 4! auswählen und einen Linksklick auf Eigenschaften machen
  3. Den Punkt “IP-Adresse automatisch beziehen” zu “Folgende IP-Adresse verwenden” ändern
  4. Dann die gewünschte IP-Adresse eintragen (am Anfang meistens 192.168.XXX.XXX)
  5. Danach die Subnetzmaske, die meistens 255.255.255.0 beträgt, eintragen
  6. und zu guter Letzt den Gateway vom Router (zu finden unter Router Einstellungen oder einfach mal bei einem verbundenen Netzwerkgerät nach schauen)
  7. PC neustarten!!!

Sobald der PC wieder hoch gefahren ist, trennt man den Raspi vom Netzwerk und steckt das eine Ende des LAN-Kabels in den Raspberry und das andere in den Computer.

Jetzt sollte alles funktionieren.

Testen kann man dies via Putty, via Webbrowser (sobald man einen Webserver auf dem Rasperry Pi installiert hat) oder via WinSCP. Dazu gibt man ganz normal die jeweiligen IP’s und Anmeldedaten ein.

Linux Software-RAID Metadaten

Permalink [ENC]BladeXP's Blog

Linux Software-RAID ist eine gerne verwendete Lösung, um auf die schnelle ein RAID System an dem einen oder anderem Server zu realisieren. In den meisten Fällen funktioniert dies auch einfach so, doch lästige moderne Systeme haben durch zunehmend dynamischere Hardware (USB, SATA, …) und stetige Verbesserungen am Init Prozess (z.B. Upstart, systemd) ein großartiges Potential sich bei der beliebten Kombination RAID und LVM in den Fuß zu schießen.

Doch auch andere Kombinationen sind möglich, genau genommen jede Option, bei welcher eine Anwendung oder ein Systembestandteil pauschal alle Block Devices nach einem bestimmten Header durchsucht. Auf einem RAID System können genau diese Header, in exakt gleicher Form, nämlich auf mehreren Block Devices zur gleichen Zeit vorhanden sein. Problematisch ist dies vor allem bei RAID1, aber ich gehe davon aus das auch andere RAID-Level hier Probleme bereiten könnten.

Um das Problem zu verstehen, muss man dessen Ursache kennen, daher ein kleiner Überblick über die gängigen RAID Metadatenversionen:

0.90
Dabei handelt es sich um das nach wie vor oft verwendete, aber inoffiziell als PITA bezeichnete Metadatenversion. Limitierungen sind u.a. maximal 2TB bei einem RAID-Level größer oder gleich 1 und zusätzlich die Limitierung auf maximal 28 Geräte im Verbund, welche weniger problematisch sein sollte. Dummerweise ist bei dieser Metadatenversion je nach Partitionierung auch nicht definiert ob sich ein RAID Verbund über die gesamte Platte oder nur einen Teil davon (Partition) erstreckt.
1.0
Das neue Metadatenformat, hier liegt der RAID Header genauso wie beim 0.90er Format am Ende der Partition/Platte. Die Bugs aus 0.90 wurden hierbei gefixt und es gibt auch einen Satz neue Features welche in der Manpage erläutert werden.
1.1
Wie 1.0, jedoch liegt der RAID Header hier nicht am Ende, sondern am Anfang einer Partition/Platte.
1.2
Wie 1.0, jedoch liegt der RAID Header hier nicht am Ende der Platte/Partition, sondern 4KB nach dem Startsektor derselben.

Das PITA (0.90) Format möchten wir wirklich nicht mehr einsetzen, aber die anderen Versionen klingen doch sehr verlockend. Aufpassen muss man hier aber bei der Wahl der Version, den einzig 1.1 sorgt dafür das am Anfang der Partition der RAID Header ist. Dadurch erkennen die meisten Tools welche ihre Header ebenfalls am Start der Partition/Platte erwarten dort keinen eigenen Header mehr und kommen nicht auf die blöde Idee diesen zu verwenden.

Durch eine ungünstige Situation (z.B. eine Race Condition) kann es z.B. beim Startvorgang vorkommen das so /dev/sda1 in eine LVM Volume Group aufgenommen wird obwohl nur wenig später das richtige Block Device, nämlich /dev/md0 zu Verfügung stehen würde. Der Schutz durch das RAID besteht so ggf. nicht, im schlimmsten Fall überschreiben sich das Software-RAID und LVM gegenseitig die Daten, ein großartiges Szenario.

Beobachten konnte ich das recht theoretische Problem bisher 2-3x auf meinem Homeserver, durch viele Schutzmaßnahmen ist aber nichts passiert, mal davon abgesehen das die gängige LVM Befehle auf einmal jammerten, dass keine PVs verfügbar wären, obwohl das System schon seit Wochen stabil läuft. Beobachten konnte ich ebenfalls das dieses Problem nur auftritt wenn der lvmetad verwendet wird, dies ist z.B. bei Arch Linux der Fall. Ich gehe auch davon aus das dieses LVM spezifische Problem eher dort zu suchen ist, unabhängig davon gibt es neben LVM noch einige andere Dinge die gerne mal Metadaten am Anfang der Partition/Platte suchen, durch die Wahl der richtigen Metadatenversion können hier schon beim erstellen des RAIDs potentielle Probleme vermieden werden.