ubuntuusers.de

15. Juni 2013

Vor einigen Tagen bin ich auf ein kleines Programm aufmerksam geworden – Knotter. Mit diesem in QT implementierten Programm kann man im Handumdrehen keltische Knoten oder islamische Flechtwerke erstellen. Mit Inkscape geht das zwar auch, ist aber wesentlich aufwendiger. Die Erweiterung für Knotenmuster trennt nur an den Ãœberlappungen die jeweiligen Pfade auf, um Knoten darzustellen.
Knotter läßt sich relativ leicht und intuitiv bedienen, es gibt nicht allzu viele Optionen. Vielleicht ist auch genau das, dass Geheimnis das Programm läßt sich wirklich einfach bedienen.

Ein Gitter an dem die gesetzten Knotenpunkte einrasten erleichtert die Arbeit, bei Bedarf kann man es auch abschalten. Wer nichtvon Beginn an, Knoten setzen möchte, der kann eines der mitgelieferten Plugins benutzen. Mit Hilfe dieser kann man sich ein Gitter, Polygone oder sogar Schriftrendern lassen. Bei Bedarf lassen sich eigene Plugins in JSON erstellen und Knotter damit erweitern. Dabei wird in 3 verschiedenen Arten von Scripten unterschieden. Es gibt Scripts zum Ändern der Spitzen (cusp), der Überschneidungen (edge) und natürlich zum Rendern von Formen. Wer interessiert ist Knotter zu erweitern, findet im Wiki eine ausreichende Dokumentation.

Nach dem man die Grundform des Knotenmuster erstellt hat, kann man natürlich das Aussehen noch anpassen, so eine Spitzenart einstellen, die Kurven anpassen, die Abstände und Größe der Löcher und die Winkel einstellen. Man kann natürlich auch die Farbe des Muster und der Ränder einstellen, hier sind nahezu beliebig viele Randfarben möglich.
Hat man sein Knotenmuster erstellt, kann man es als Rastergrafik oder als SVG exportieren. Zum speichern benutzt Knotter sein eigenes Format, *.knot man kann aber auch als XML-Datei abspeichern. Man kann aber auch den erstellten Knoten per Copy & Paste in Inkscape importieren. Wer Hilfebeim Einstieg braucht, findet im Wiki des Projektes einige Tutorials.

Es gibt aber auch Abstriche, da Knotter ein relativ junges Projekt ist, gibt es noch keine deutsche Übersetzung, dasstut der Sache aber keinen Abbruch. Man kann mit dieser Software auf jeden Fall Spaß haben.

Wer Knotter installieren möchte, findet den Sourcecode natürlich auf den Seiten des Projektes. Es gibt aber auch Pakete für Debian, Ubuntu, Fedora und weitere.

Firefox besitzt mittlerweile hervorragende Werkzeuge für Entwickler. Dank Remote-Fähigkeiten lassen sich einige der Werkzeuge des Desktop-Browsers auch für Firefox Mobile und Firefox OS nutzen. In Zukunft wird auch Thunderbird davon profitieren.

Es ist ein Google Summer of Code-Projekt (GSoC) und die Implementierung ist noch nicht abgeschlossen, aber die ersten Ergebnisse können mit den aktuellen Entwicklerversionen von Thunderbird und Firefox bereits getestet werden. Beim GSoC handelt es sich um ein Stipendium von Google, bei welchem Studenten für ihre Mitarbeit bei Open Source-Projekten finanzielle Unterstützung erhalten. Einen Überblick über die diesjährigen GSoC-Projekte für Mozilla gibt es hier in englischer Sprache.

Thunderbird besitzt abgesehen von der alten Fehlerkonsole, welche in Firefox 23 durch eine bessere Browserkonsole ersetzt wird, keine eigenen Entwickler-Werkzeuge. Das macht die Entwicklung an Thunderbird nicht unbedingt einfacher. Firefox hingegen besitzt eine relativ breite Palette an praktischen Werkzeugen, welche bereits Remote-Fähigkeiten besitzen und damit grundsätzlich in anderen Mozilla-Anwendungen genutzt werden können. Philipp Kewisch, welcher auch der Maintainer der Kalender-Erweiterung Lightning für Thunderbird ist, hat einen ersten Meilenstein erreicht – der Debugger kann nun für Thunderbird genutzt werden. Zwar funktionieren die anderen Werkzeuge noch nicht, doch es kann in den nächsten Wochen mit weiteren Fortschritten gerechnet werden, so dass bald vielleicht schon der Stil-Editor oder die Konsole von Firefox in Thunderbird genutzt werden kann.

Zum Testen bedarf es jeweils einer aktuellen Entwicklerversion von Thunderbird (Daily) und Firefox (Nightly). In Thunderbird muss dann der Haken bei Tools > Allow Remote Debugging gesetzt werden. Nachdem in Firefox über about:config der Schalter devtools.debugger.remote-enabled auf true gesetzt und Firefox neu gestartet wurde, kann hier über Tools > Web Developer > Connect… eine Remote-Verbindung zu Thunderbird aufgebaut werden, standardmäßig über Port 6000. Nachdem hier dann der “Main Process” ausgewählt wurde, kann der Debugger von Firefox für Thunderbird genutzt werden. Gleiches gilt dann sehr bald vielleicht schon für das eine oder andere Werkzeug mehr.

Vor vielen Jahren, ich behaupte so ca. 2002/2003 hatte ich eine Diskussion mit einem Arbeitskollegen über OpenSource Software und vor allem aber Linux. Hintergrund war meine These das wir in wenigen Jahren alle irgendwo zumindest OpenSource Software wenn nicht sogar direkt Linux am laufen haben werden, da dieses System für viele Anwendungen aufgrund seiner Portabilität hervorragend sei.

Wie zu erwarten hat er mich nur müde belächelt, mit dem Hintergrund das doch ein normaler Anwender niemals eine Textkonsole nutzen würde und dies nur etwas für verrückte Spinner sei die den Knall noch nicht gehört haben. Ich entgegnete das für 90% der Anwender das Betriebssystem keine Relevanz hat so lange es läuft und die gewünschten Anwendungen damit funktionieren. Mein Hinweis das wir später Smartphones, DSL-Router, Drucker, Settop-Boxen und vielen mehr mit Linux haben werden wurde mit einem Kopfschütteln abgelehnt.

Heute wissen wir wie diese Geschichte weiterging, Schade das der Mitarbeiter nicht mehr im Unternehmen ist, ein paar Bier auf seine Kosten hätte ich jetzt schon gerne konsumiert. Linux ist heute fast überall, im Router, Smartphone und vielen anderen Geräten von denen wir einfach erwarten das diese funktionieren. Natürlich keine ausgewachsenen Systeme mit KDE oder GNOME, aber viele Dinge aus unserem täglichen Leben laufen ob wir es wollen oder nicht mit Linux.

Ich hoffe nur das wir über diese geschlossenen System (gesperrte Bootloader, fehlende Möglichkeit für Modifikationen) irgendwann wieder die Rechte haben und damit machen können was wir wollen. Aktuell haben wir Linux drauf (Smartphones), dürfen oder können dies aber oft nur mit großer Mühe gegen ein System mit unseren eigenen Vorstellungen austauschen. Vielleicht sollte ich hierzu auch eine These aufstellen…

Vor vielen Jahren, ich behaupte so ca. 2002/2003 hatte ich eine Diskussion mit einem Arbeitskollegen über OpenSource Software und vor allem aber Linux. Hintergrund war meine These das wir in wenigen Jahren alle irgendwo zumindest OpenSource Software wenn nicht sogar direkt Linux am laufen haben werden, da dieses System für viele Anwendungen aufgrund seiner Portabilität hervorragend sei.

Wie zu erwarten hat er mich nur müde belächelt, mit dem Hintergrund das doch ein normaler Anwender niemals eine Textkonsole nutzen würde und dies nur etwas für verrückte Spinner sei die den Knall noch nicht gehört haben. Ich entgegnete das für 90% der Anwender das Betriebssystem keine Relevanz hat so lange es läuft und die gewünschten Anwendungen damit funktionieren. Mein Hinweis das wir später Smartphones, DSL-Router, Drucker, Settop-Boxen und vielen mehr mit Linux haben werden wurde mit einem Kopfschütteln abgelehnt.

Heute wissen wir wie diese Geschichte weiterging, Schade das der Mitarbeiter nicht mehr im Unternehmen ist, ein paar Bier auf seine Kosten hätte ich jetzt schon gerne konsumiert. Linux ist heute fast überall, im Router, Smartphone und vielen anderen Geräten von denen wir einfach erwarten das diese funktionieren. Natürlich keine ausgewachsenen Systeme mit KDE oder GNOME, aber viele Dinge aus unserem täglichen Leben laufen ob wir es wollen oder nicht mit Linux.

Ich hoffe nur das wir über diese geschlossenen System (gesperrte Bootloader, fehlende Möglichkeit für Modifikationen) irgendwann wieder die Rechte haben und damit machen können was wir wollen. Aktuell haben wir Linux drauf (Smartphones), dürfen oder können dies aber oft nur mit großer Mühe gegen ein System mit unseren eigenen Vorstellungen austauschen. Vielleicht sollte ich hierzu auch eine These aufstellen…

Ich hatte erst kürzlich über PRISM geschrieben. Da ich dort voller “Ignoranz”(Behaupte ich einfach mal) geschrieben habe, dass die Leute doch sicherer Leben könnten, dachte ich mir, dass ich auch mal Alternativen und Anleitungen veröffentliche.

Erste Schritte beim Surfen

Nun, so gut wie jeder Surft noch bei Google, obwohl mittlerweile jeder wissen sollte, dass die Benutzerdaten gesammelt, verkauft und für Gerichte genutzt werden(könnten). Es gibt hier Abhilfen in Form von Open Source Suchmaschinen(D.h jeder kann sich den Quelltext ansehen), welche auf keinen Fall irgendwie auch nur Versuchen, dich in der Suche zu beeinflussen(Wie es Google aber macht, die nennen es ja “Bessere Ergebnisse).
Ich persönlich nutze https://duckduckgo.com/(Weitere kannst Du bei den “Weiterführenden Links” finden). Wie jedem auffallen sollte, auch hier ist eine SSL Verschlüsselung gewährleistet. DuckDuck unterstützt auch eine für die Suche Entwickelte !bang, wodurch man spezifische Seiten durchsuchen kann. Diese wird ganz einfach durch ein Ausrufezeichen(!) aufgerufen, folgend von dem Begriff. Eine Übersichtsseite ist Hier zu finden. Wenn ich also “!wikipedia bang syntax” Eingebe, werde ich auf Wikipedia Weitergleitet, wo direkt nach “bang syntax” gesucht wird. Bei mir war das Oberste Ergebnis “Icon (Programming Language)”.
Auch DuckDuck braucht Hilfe, da es sich hier um keinen Konzern handelt. Falls Du also irgendwas beisteuern willst/kannst, siehe Hier!
(Weitere Suchmaschinen unter “Weiterführende Links zu finden”)
Anstatt von “Google Maps” o.ä würde ich dir doch ehrlich Open Street Map.org ans Herze legen. Es ist mindestens genauso gut wie Google Maps! </div>
                <div class= Permalink

Songbird ist ein auf Mozilla-Code basierender Medienplayer für Windows, Mac OS X, Android und iOS. Zudem betreibt man mit songbird.me ein Musik-Portal. Die hinter Songbird stehende Firma hat nun die Einstellung aller Dienste für den 28. Juni angekündigt, da man pleite ist.

Anfang 2006 wurde mit Version 0.1 die erste öffentliche Version eines freien Medienplayers und iTunes-Konkurrenten unter dem Namen Songbird veröffentlicht. Das Besondere: Songbird basiert auf Mozilla-Code, was das Programm plattformübergreifend auf Windows, Mac OS X und Linux laufen und gleichzeitig von Mozillas Plattform profitieren ließ, beispielsweise in Form des Add-on-Systems. Die Unterstützung für Linux wurde 2010 eingestellt, dafür gibt es mittlerweile Apps für Android sowie iOS, dazu gibt es seit 2012 das Musikportal songbird.me.

Bildquelle: getsongbird.com

Doch neue Versionen des Medienplayers wird es nicht mehr geben. POTI, die Entwickler hinter Songbird, sind pleite, am 28. Juni werden alle Dienste eingestellt. Die Macher von Songbird bedanken sich bei allen Nutzern und empfehlen Nightingale als Alternative. Bei Nightingale handelt es sich um einen Open Source-Medienplayer, welcher 2010 aus Songbird hervorgegangen ist und neben Windows und Mac OS X weiterhin Linux unterstützt.

Ich habe heute Piwik installiert um ein paar Statistiken über Seitenzugriffe, Referrer, verwendete Betriebsysteme, Browser und ähnliches zu bekommen. Ich habe Piwik vor ein paar Jahren schon mal eingesetzt und habe mich auch diesmal wieder dafür und nicht für Google-Analytics o.ä. entschieden, da Piwik lokal bei meinem Hoster läuft. Externe Dienste wie Google-Analytics erlauben dem Dienstleister, in diesem Beispiel Google, nämlich das Tracking der Besucher über mehrere Seiten hinweg. Außerdem ist Piwik freie Software und ich bevorzuge diese wo es möglich ist.
Piwik benötigt für die Erfassung der Daten Java-Script, wer mir also die Erfassung von Zugriffsstatistiken etc. ermöglichen will erlaubt bitte JS für piwik.mdosch.de. Piwik ist auch so konfiguriert, dass es den DNT-Header berücksichtigt.

Update 2016-08-26

Piwik ist mittlerweile deaktiviert. Ich fand es zwar interessant über Piwik zu sehen woher die Besucher kamen und dadurch Verlinkungen auf meinen Blog zu finden, aber ich möchte meinen Blog so Datenschutzkonform wie möglich einrichten um mit gutem Beispiel voran zu gehen.

Ich habe heute Piwik installiert um ein paar Statistiken über Seitenzugriffe, Referrer, verwendete Betriebsysteme, Browser und ähnliches zu bekommen. Ich habe Piwik vor ein paar Jahren schon mal eingesetzt und habe mich auch diesmal wieder dafür und nicht für Google-Analytics o.ä. entschieden, da Piwik lokal bei meinem Hoster läuft. Externe Dienste wie Google-Analytics erlauben dem Dienstleister, in diesem Beispiel Google, nämlich das Tracking der Besucher über mehrere Seiten hinweg. Außerdem ist Piwik freie Software und ich bevorzuge diese wo es möglich ist.
Piwik benötigt für die Erfassung der Daten Java-Script, wer mir also die Erfassung von Zugriffsstatistiken etc. ermöglichen will erlaubt bitte JS für piwik.mdosch.de. Piwik ist auch so konfiguriert, dass es den DNT-Header berücksichtigt.

Update 2016-08-26

Piwik ist mittlerweile deaktiviert. Ich fand es zwar interessant über Piwik zu sehen woher die Besucher kamen und dadurch Verlinkungen auf meinen Blog zu finden, aber ich möchte meinen Blog so Datenschutzkonform wie möglich einrichten um mit gutem Beispiel voran zu gehen.

14. Juni 2013

Keine zwei Tage nach dem Start von Mozillas Kampagne Stop Watching Us gegen die Überwachung durch die NSA kann, zumindest was die Reichweite der Kampagne angeht, der erste Erfolg vermeldet werden: Es konnten bereits über 100.000 Unterschriften gesammelt werden.

Gemeinsam mit 85 weiteren Organisationen, darunter unter anderem EFF, Reddit und Greenpeace, hat Mozilla die Kampagne Stop Watching Us als Reaktion auf den Überwachungs-Skandal durch die NSA rund um PRISM & Co. gestartet. Nach zwei Tagen hat man bereits über 100.000 Unterschriften sammeln können, zum Zeitpunkt des Erscheinens dieses Artikels zeigt der Zähler 115.306 Unterschriften an.

Wer seinen Teil zum Protest beitragen und ein Zeichen setzen möchte, kann seine digitale Unterschrift nach wie vor setzen:
Petition Stop Watching Us unterzeichnen

Wer sich Gedanken darüber macht, ob Mozilla seine Persona-Server nach Europa umziehen sollte, liest hier weiter:
Persona: Wieso Mozilla die Server nicht nach Europa umzieht

Da hört man im Münchner Exil mal wieder etwas aus der Heimat und dann ist es so ein Unfug.
Klingenberg am Main sorgte in den Siebzigern durch den Exorzismus an Anneliese Michel für internationales Aufsehen und wird oft auch als Vorlage für den Film Der Exorzismus der Emily Rose genannt.
Nun kam es in letzter Zeit in Klingenberg zu Bränden, darunter auch eine Villa nahe des Orts an dem katholische Priester die Teufelsaustreibung vornahmen, und das Sägewerk Michel. In zwei weiteren Brandfällen (eine Garage und ein Autoanhänger) vermutet die Polizei Brandstiftung. Beim Brand des Sägewerks und der Villa sind sie sich aufgrund des großen Schadens noch nicht sicher.

Soweit die Fakten.

Nun kommen aber natürlich wieder die wildesten Theorien auf, z.B. dass das Datum (06.06.2013) 666 ergibt (2 + 1 + 3 = 6) und das kein Zufall sein könne. Natürlich springen die großen überregionalen Medien auch auf den Zug auf und geben sich den wildesten Spekulationen hin.
Man will auch in Bildern der brennenden Villa Geister gesehen haben und ähnliches.

Hervorhebung der \“Geister\”

Was damals in Klingenberg passiert ist war schrecklich und auch Brandstiftung ist eine üble Sache. Dennoch sollte man das Geschehen sachlich und nüchtern bewerten, die Brandstifter ausfindig machen und keine Verbindungen zum Fall Anneliese Michel suchen. Vor allem diese “Geister”-Geschichten ärgern mich, da man nur wieder die Sensationsgier bedienen will.

Im Artikel von main-netz.de wird auch auf den Umgang der Medien mit der Geschichte eingegangen (der Artikel selbst hat mit In Klingenberg ist der Teufel los allerdings auch einen reißerischen Titel).

Den TV-Beitrag von Sat1 kann man sich hier ansehen.

So, das musste raus. Dass man die alten Geschichten wieder aufwärmt und übernatürliches bei einem abbrennenden Gebäude sehen will geht mir einfach wahnsinnig gegen den Strich. 😉


Nachtrag:
Die tz titelte mittlerweile Satansjünger in Franken? Zum Gruseln: Abgebrannt – Das Exorzisten-Haus.

Die Bild schreibt “Mehr Infos Teufels-Trubel in Klingenberg
Geister in brennendem​ Exorzismus-Haus?
”.

[Nachtrag 2013-09-06]
Mittlerweile wurde der Brandstifter festgenommen. Der 19-jährige hat mittlerweile gestanden die Brände gelegt zu haben.
Auf der Seite der Polizei Bayern kann man auch die Pressemitteilung des Pressesprechers Michael Zimmer als mp3-Datei herunterladen bzw. anhören.

13. Juni 2013

Ich gehe erstmal davon aus das bekannt ist was die ASCII Codes sind, deshalb keine größen Erläuterungen was es damit auf sich hat. Falls nicht bekannt: Fragt die Suchmaschine eures Vertrauens ;-)

In den ASCII Code Tabellen kann man sich manchmal aber auch “einen Wolf suchen”. Deswegen kleine Gedankenstütze für mich welche Codes für mein Linux Überleben wichtig sind. Gerade heute Morgen hätte ich die Pipe mal wieder benötigt und musste mich durch Suchmaschinen wühlen.

Auf Windows Systemen kennt man das z.b. im CMD Prompt. Man hält die ALT Taste fest und tippt den dezimalen Wert:

Die Pipe: | #124
Größer als (Umleiten in Datei: > #62
Kleiner als: < #60
Schrägstrich: / #47

Auf Ubuntu Systemen orientiert man sich an den Unicode Tabellen und benutzt im “gnome-terminal” die Tastenkombination STRG+SHIFT+u und den entsprechenden Hexcode.

Eine Alternative zur Tastenkombination:

echo $'\x7c' <-- Beispiel für eine Pipe

Wichtige Hexcodes auf Ubuntu:

Die Pipe: | 7c
Größer als (Umleiten in Datei: > 3e
Kleiner als: < 3c
Schrägstrich: / 2f

Fällt euch sonst noch ein Hilfreicher ASCII Code für die Linuxbedienung auf dem Terminal ein?

Ich habe die zwei Ordner ORIGINAL-A und ORIGINAL-B. Diese sollen nun im Ordner ZIEL zusammengeführt werden. ORIGINAL-A und ORIGINAL-B haben teilweise die selben Unterordner, wobei die Dateien innerhalb dieser Unterordner unterschiedlich (Dateiname, Inhalt, Version) seien können. Jede “unique” Datei soll in ihrer aktuellsten Form in den entsprechenden Unterordner des Ordners ZIEL kopiert werden. Manche Unterordner existieren nur in ORIGINAL-A, manche Unterordner nur in ORIGINAL-B. Alle “uniquen” Ordner sollen an die entsprechende Stelle des Ordners ZIEL kopiert werden.

Ich habe die zwei Ordner ORIGINAL-A und ORIGINAL-B. Diese sollen nun im Ordner ZIEL zusammengeführt werden.

  • ORIGINAL-A und ORIGINAL-B haben teilweise die selben Unterordner, wobei die Dateien innerhalb dieser Unterordner unterschiedlich (Dateiname, Inhalt, Version) seien können. Jede “unique” Datei soll in ihrer aktuellsten Form in den entsprechenden Unterordner des Ordners ZIEL kopiert werden.
  • Manche Unterordner existieren nur in ORIGINAL-A, manche Unterordner nur in ORIGINAL-B. Alle “uniquen” Ordner sollen an die entsprechende Stelle des Ordners ZIEL kopiert werden.

In der Kommandozeile funktioniert dies z.B. mittels rsync:

rsync -aP /Pfad/zu/ORIGINAL-A/* /Pfad/zu/ZIEL/
rsync -aP /Pfad/zu/ORIGINAL-B/* /Pfad/zu/ZIEL/

Weblinks

via AskUbuntu

share this

Mal ein Artikel in eigener Sache. Seit Oktober 2010 betreibe ich nun diesen Blog und bis auf ganz wenige Ausnahmen stammen alle Artikel von mir. Während dieser Zeit sind hier 178 Artikel erschienen mit insgesamt 678 Kommentaren. Leider sind das nur rund 5-6 Artikel pro Monat. Diese Zahl möchte ich in Zukunft gerne erhöhen und dafür möchte ich mich an dich wenden!

Wenn dir das Schreiben von Artikeln Spaß macht und dich der Themenbereich des Blogs anspricht (Linux, Android, OpenSource), dann bist du herzlich dazu eingeladen, hier Artikel zu veröffentlichen. Im besten Falle wird dein Artikel dann im Monat einige tausendmal aufgerufen und gelesen. Du kannst mit deinem Artikel also vielen Menschen helfen und über die Kommentare mit deinen Lesern kommunizieren.

Du fühlst dich angesprochen? Dann nichts wie los! Alles was du machen musst, ist eine kurze formlose E-Mail an mich zu schreiben. Dies kannst du entweder über das Kontaktformular machen oder per E-Mail an.

Ich freue mich auf deine E-Mail!

Auf einem meiner Testrechner versagen plötzlich EFI-Installation, zumindest bei modernen Distributionen. Während der Installation scheint alles zu klappen, aber beim Neustart fehlt der entsprechende Eintrag im EFI-Bootmenü. Die neu installierte Distribution lässt sich nicht starten. Betroffen sind z.B. Ubuntu 13.04 und Debian 7, nicht aber Ubuntu 12.10 oder openSUSE 12.3. Merkwürdig!

Die Ursache des Problems besteht offensichtlich darin, dass der Kernel unter bestimmten Umständen Veränderungen des EFI-Speichers verhindert. In den Kernelmeldungen taucht dann der Eintrag efivars: set_variable() failed auf.

Unklar ist mir geblieben, warum bzw. unter welchen Umständen dieser Fehler auftritt. Möglicherweise hängt es mit Schutzmaßnahmen in neueren Kerneln zusammen, die defekte EFI-Implementierungen vor einer Beschädigung bewahren sollen (siehe z.B. diesen Artikel bei heise.de). Mein Testrechner ist freilich kein Samsung-Notebook, sondern ein herkömmlicher PC mit einem ASUS-Mainboard (P8H67-M Evo); bisher hatte ich mit dessen EFI-Funktionen nie Probleme. UEFI Secure Boot kennt dieses Mainboard gar nicht.

Im Ubuntu Launchpad gibt es einen schon recht umfangreichen Bug-Bericht (samt etlicher Duplikate), der möglicherweise ebenfalls mein Problem beschreibt: #1173423 Der Bug bezieht sich allerdings ausdrücklich auf ganz neue Kernel-Versionen, weswegen ich gewisse Zweifel habe, ob der dort beschriebene Fehler mit meinem Problem zu tun hat. Debian 7 verwendet ja einen viel älteren Kernel.

Auch in Debians Bug-Datenbank gibt es einen passenden Bericht: #706632

Was auch immer der Grund ist -- ich will auf meinem Rechner naturgemäß nicht nur alte, sondern auch neue Distributionen testen. Nach einigem Herumprobieren habe ich mich letztlich damit abgefunden, dass sich neue Systeme nicht auf Anhieb starten lassen. Stattdessen starte ich den Rechner dann mit einer alten Ubuntu-CD (12.10), installiere im Live-System das Paket efibootmgr und füge den EFI-Booteintrag eben manuell hinzu, z.B. so:

efibootmgr -c -l \\EFI\\debian\\grubx64.efi -L debian

Die Zeichenkette bei der Option -l entspricht dem Pfad innerhalb der EFI-Partition (also /boot/efi). Der EFI-Defaulteintrag kann bei Bedarf anschließend mit efibootmgr -o festgelegt werden.

Update 14.6.2013

Das Problem tritt auch unter Fedora 19 Beta auf. Dessen Installationsprogramm erkennt immerhin, dass sich die EFI-Variablen nicht verändern lassen, und liefert die Fehlermeldung broken EFI implementation is returning MaxVariableSize=0. Hier ist der Fedora-Bug-Bericht: #947142

Ich habe daraufhin ein EFI-Update für mein Mainboard durchgeführt. Das Problem scheint damit behoben zu sein. Oder hat das Update nur dewegegen geholfen, weil dabei der EFI-Speicher gelöscht wurde?

Ich gebe es zu, ich war in letzter Zeit faul und hatte seit Januar kein Backup mehr gemacht. Zuletzt verwendete ich dafür das auf Duplicity aufsetzende Déjà Dup, aber bei der letzten Installation meines Laptops hatte ich arge Probleme das Backup wiederherzustellen, da Déjà Dup die Integrität des Backups in Frage stellte und auch häufig crashte. Nach mehrmaligen Versuchen gelang es zwar doch, aber da Déjà Dup das Backup in einem eigenen Format speichert besteht grundsätzlich die Gefahr das Backup nicht wiederherstellen zu können. Der Ubuntu-Entwickler Michael Terry weist auch in einem Blog-Eintrag auf dieses Risiko hin.

My concern stems from the fact that Déjà Dup uses an opaque backup format [1]. Which means that it does not store your data in plain files that you can just copy back into place with the file manager. You’ll need to use Déjà Dup again to restore them [2]. Which is fine if Déjà Dup is working correctly, as it should.

But just from a risk management perspective, I always recommend that people try to have at least one copy of their data in “plain files” format at all times.

Aus diesem Grund möchte ich ein simples altbewährtes Tool nutzen, bei dem die Wahrscheinlichkeit einer Fehlfunktion geringer ist und ich im Notfall die Dateien auch händisch wiederherstellen kann. Meine Wahl fiel dabei auf rsync. Rsync kann Dateien lokal oder über Netzwerk sichern. Ich verwende in meinem Fall eine USB-Festplatte. Die Syntax von rsync ist simpel:

    rsync [OPTIONEN] Quelle Ziel

Als Quelle wählt man natürlich den zu sichernden Ordner, wie z.B. /home/martin und als Ziel das Zielmedium in meinem Fall /media/martin/USB-Festplatten-UUID/Backup wobei ich der Lesbarkeit wegen meine UUID durch USB-Festplatten-UUID ersetzt habe. Bei der Angabe der Quelle ist es wichtig darauf zu achten, dass zwischen Quelle und Quelle/ unterschieden wird.

    rsync -a /home/martin/ /media/martin/USB-Festplatten-UUID/Backup

würde nur die Dateien im Ordner martin zum Ziel übertragen, nicht den Ordner martin selbst. Um den gesamten Ordner zu sichern muss man

    rsync -a /home/martin /media/martin/USB-Festplatten-UUID/Backup

ausführen.

Wie man der manpage entnehmen kann gibt es sehr viele Optionen für rsync. Im vorigen Beispiel wurde die Option -a benutzt, welche die folgenden Optionen beinhaltet:

-r -> Unterverzeichnisse werden mitkopiert (rekursiv)
-l -> symbolische Links werden mitkopiert
-p -> Rechte bleiben erhalten
-t -> Zeiten bleiben erhalten
-g -> Gruppenrechtebleiben erhalten
-o -> Besitzrechte bleiben erhalten (root)
-D -> Gerätedateien bleiben erhalten (root)

Um Besitzrechte und Gerätedateien zu erhalten muss rsync als root ausgeführt werden. Will man nicht nur symbolische Links sondern auch Hardlinks erhalten, so kann man dies durch die Option -H erreichen. Um nach einem Abbruch an der Abbruchstelle fortsetzen zu können kann man die Option -P verwenden. Durch diese Option wird auch der Fortschritt des Vorgangs angezeigt.
Bei einer Übertragung über ein Netzwerk kann man durch -z die Daten komprimiert übertragen und durch -e wählt man die Remote-Shell, z.B. -e ssh.
Bei Aktualisierungen eines Backups kann die Option --delete sinnvoll sein, da sie Dateien die nicht mehr in der Quelle vorhanden sind auch im Ziel löscht. So verhindert man auch, dass Dateien, welche seit dem letzten Backup umbenannt wurden, doppelt im Backup vorkommen. Mit Hilfe der Option -b können veränderte Dateien, auch durch --delete gelöschte Dateien, in einen durch --backup-dir= definierten Backup-Ordner gesichert werden.
Mittels --exclude= kann man Ordner von der Übertragung ausschließen. Dabei ist zu beachten, dass man den Ordner relativ zur Quelle und nicht absolut angeben muss. D.h. wenn unsere Quelle /home/martin ist und wir wollen /home/martin/.gnupg vom Backup ausschließen, müssen wir dies mit --exclude=/.gnupg tun, nicht mit --exclude=/home/martin/.gnupg.
Verwendet man --stats bekommt man am Ende der Übertragung einen Report und mit -v während des Vorgangs die aktuellen Schritte angezeigt.

Ich habe nun meinen home-Ordner wie folgt gesichert:

    rsync -avP --stats /home/martin /media/martin/USB-Festplatten-UUID/Backup

Eine Sicherung, bei der gelöschte Dateien auch im bereits vorhandenen Backup entfernt, aber gesichert, und die Daten komprimiert über SSH übertragen werden könnte so aussehen:

    rsync -avPzbe "ssh -p 667" --delete --backup-dir=martin@zweitrechner:/tmp/Backup/Old /home/martin martin@zweitrechner:/tmp/Backup

Weitere Informationen kann man durch man rsync oder diesem LinuxUser-Artikel erhalten.

Warnung: Ich möchte darauf hinweisen, dass ich diesen Artikel hauptsächlich für mich selbst als Gedächtnisstütze geschrieben habe und keine Garantie für Fehlerfreiheit übernehme. Da ich nur einen Rechner habe, konnte ich z.B. das SSH-Beispiel nicht testen. Allgemein würde ich empfehlen, bei so etwas sensiblem wie Backups immer aufmerksam zu sein, das Gehirn einzuschalten und lieber zweimal nachzudenken bevor man handelt.

Ich gebe es zu, ich war in letzter Zeit faul und hatte seit Januar kein Backup mehr gemacht. Zuletzt verwendete ich dafür das auf Duplicity aufsetzende Déjà Dup, aber bei der letzten Installation meines Laptops hatte ich arge Probleme das Backup wiederherzustellen, da Déjà Dup die Integrität des Backups in Frage stellte und auch häufig crashte. Nach mehrmaligen Versuchen gelang es zwar doch, aber da Déjà Dup das Backup in einem eigenen Format speichert besteht grundsätzlich die Gefahr das Backup nicht wiederherstellen zu können. Der Ubuntu-Entwickler Michael Terry weist auch in einem Blog-Eintrag auf dieses Risiko hin.

My concern stems from the fact that Déjà Dup uses an opaque backup format [1]. Which means that it does not store your data in plain files that you can just copy back into place with the file manager. You’ll need to use Déjà Dup again to restore them [2]. Which is fine if Déjà Dup is working correctly, as it should.

But just from a risk management perspective, I always recommend that people try to have at least one copy of their data in “plain files” format at all times.

Aus diesem Grund möchte ich ein simples altbewährtes Tool nutzen, bei dem die Wahrscheinlichkeit einer Fehlfunktion geringer ist und ich im Notfall die Dateien auch händisch wiederherstellen kann. Meine Wahl fiel dabei auf rsync. Rsync kann Dateien lokal oder über Netzwerk sichern. Ich verwende in meinem Fall eine USB-Festplatte. Die Syntax von rsync ist simpel:

    rsync [OPTIONEN] Quelle Ziel

Als Quelle wählt man natürlich den zu sichernden Ordner, wie z.B. /home/martin und als Ziel das Zielmedium in meinem Fall /media/martin/USB-Festplatten-UUID/Backup wobei ich der Lesbarkeit wegen meine UUID durch USB-Festplatten-UUID ersetzt habe. Bei der Angabe der Quelle ist es wichtig darauf zu achten, dass zwischen Quelle und Quelle/ unterschieden wird.

    rsync -a /home/martin/ /media/martin/USB-Festplatten-UUID/Backup

würde nur die Dateien im Ordner martin zum Ziel übertragen, nicht den Ordner martin selbst. Um den gesamten Ordner zu sichern muss man

    rsync -a /home/martin /media/martin/USB-Festplatten-UUID/Backup

ausführen.

Wie man der manpage entnehmen kann gibt es sehr viele Optionen für rsync. Im vorigen Beispiel wurde die Option -a benutzt, welche die folgenden Optionen beinhaltet:

-r -> Unterverzeichnisse werden mitkopiert (rekursiv)
-l -> symbolische Links werden mitkopiert
-p -> Rechte bleiben erhalten
-t -> Zeiten bleiben erhalten
-g -> Gruppenrechtebleiben erhalten
-o -> Besitzrechte bleiben erhalten (root)
-D -> Gerätedateien bleiben erhalten (root)

Um Besitzrechte und Gerätedateien zu erhalten muss rsync als root ausgeführt werden. Will man nicht nur symbolische Links sondern auch Hardlinks erhalten, so kann man dies durch die Option -H erreichen. Um nach einem Abbruch an der Abbruchstelle fortsetzen zu können kann man die Option -P verwenden. Durch diese Option wird auch der Fortschritt des Vorgangs angezeigt.
Bei einer Übertragung über ein Netzwerk kann man durch -z die Daten komprimiert übertragen und durch -e wählt man die Remote-Shell, z.B. -e ssh.
Bei Aktualisierungen eines Backups kann die Option --delete sinnvoll sein, da sie Dateien die nicht mehr in der Quelle vorhanden sind auch im Ziel löscht. So verhindert man auch, dass Dateien, welche seit dem letzten Backup umbenannt wurden, doppelt im Backup vorkommen. Mit Hilfe der Option -b können veränderte Dateien, auch durch --delete gelöschte Dateien, in einen durch --backup-dir= definierten Backup-Ordner gesichert werden.
Mittels --exclude= kann man Ordner von der Übertragung ausschließen. Dabei ist zu beachten, dass man den Ordner relativ zur Quelle und nicht absolut angeben muss. D.h. wenn unsere Quelle /home/martin ist und wir wollen /home/martin/.gnupg vom Backup ausschließen, müssen wir dies mit --exclude=/.gnupg tun, nicht mit --exclude=/home/martin/.gnupg.
Verwendet man --stats bekommt man am Ende der Übertragung einen Report und mit -v während des Vorgangs die aktuellen Schritte angezeigt.

Ich habe nun meinen home-Ordner wie folgt gesichert:

    rsync -avP --stats /home/martin /media/martin/USB-Festplatten-UUID/Backup

Eine Sicherung, bei der gelöschte Dateien auch im bereits vorhandenen Backup entfernt, aber gesichert, und die Daten komprimiert über SSH übertragen werden könnte so aussehen:

    rsync -avPzbe "ssh -p 667" --delete --backup-dir=martin@zweitrechner:/tmp/Backup/Old /home/martin martin@zweitrechner:/tmp/Backup

Weitere Informationen kann man durch man rsync oder diesem LinuxUser-Artikel erhalten.

Warnung: Ich möchte darauf hinweisen, dass ich diesen Artikel hauptsächlich für mich selbst als Gedächtnisstütze geschrieben habe und keine Garantie für Fehlerfreiheit übernehme. Da ich nur einen Rechner habe, konnte ich z.B. das SSH-Beispiel nicht testen. Allgemein würde ich empfehlen, bei so etwas sensiblem wie Backups immer aufmerksam zu sein, das Gehirn einzuschalten und lieber zweimal nachzudenken bevor man handelt.

Wie Meillo in seinem Kommentar zu Blocksatz mit Silbentrennung korrekt feststellte funktioniert meine Lösung nur mit eingeschaltetem Java-Script, da der Hyphenator dies benötigt.
Da ich selbst mit NoScript surfe und der Meinung bin man sollte möglichst auf Scripte verzichten habe ich jetzt eine Lösung eingefügt, die ohne JS auskommt. Dazu wird lediglich folgendes CSS benötigt:

    .entry-content{
    text-align: justify;
    -webkit-hyphens: auto;
    -moz-hyphens: auto;
    -ms-hyphens: auto;
    hyphens: auto;
    }

Gefunden habe ich dies in einem Eintrag bei Officetrend.

Nachtrag: Für Opera gilt es noch -o-hyphens: auto; einzufügen.

Da ich den Flattersatz als wenig ästhetisch empfand habe ich mich entschlossen in der Mittagspause auf Blocksatz umzustellen. Blocksatz hat ohne Silbentrennung aber den Nachteil, dass bei langen Wörtern hässliche Löcher im Text entstehen können. Dies ist vor allem auf mobilen Geräten mit kleinen Displays problematisch.
Also war klar: Blocksatz nur in Kombination mit Silbentrennung. Dies habe ich folgendermaßen erreicht:
Das Umstellen auf Blocksatz ging mit Hilfe dieses im Netz aufgefischten CSS-Schnipsel ohne Probleme.

    .DIVCLASS{
    text-align: justify;
    }

DIVCLASS musste lediglich durch den Namen der Klasse des Beitragstextes ersetzt werden.
Die Silbentrennung erledigt ein WordPress-Plugin namens Hyphenator. Auf den ersten Blick scheint die Kombination gut zu funktionieren und auch an den richtigen Stellen zu trennen. Die Kontrolle mit meinem Android-Handy hat auch keine Probleme aufgezeigt.

12. Juni 2013

Ein großes Thema derzeit in den Medien: PRISM und die Überwachung durch die NSA. Eine Diskussion, welche auch schon Stimmen hervorbrachte, Mozilla solle seine Persona-Server nach Europa umziehen. Mozilla hat dazu Stellung bezogen und erklärt, wieso man das für keine zielführende Idee hält.

Persona ist der Name von Mozillas dezentralem Authentifizierungssystem für Webseiten. In diesem Zusammenhang speichert Mozilla natürlich auch E-Mail-Adressen von Nutzern. Auch wenn Mozilla außer der E-Mail-Adresse keine weiteren Nutzerdaten speichert und Mozilla nicht in Verbindung mit PRISM steht, ließe sich möglicherweise argumentieren, dass sich dies ja ändern könnte, sobald Persona irgendwann eine größere Verbreitung auf Webseiten findet und dadurch interessant für die NSA werden könnte, welche dann unter Umständen detailliertere Informationen über die Nutzer verlangen könnte.

Mozilla betont in einem aktuellen Blog-Eintrag, dass sie gemäß ihrer Datenschutzbestimmungen lediglich die Daten von Nutzern speichern, welche sie speichern müssen, um ihre Dienste anbieten zu können, und verweist auf das Mozilla Manifest. Bei Persona erfährt durch die Benutzung des Dienstes weder der Identitäts-Provider noch Mozilla etwas über den Browsing-Verlauf des Nutzers. Man ergreife technische Maßnahmen, um die gesammelten Daten zu begrenzen. Mozilla sieht in seinem Ansatz eine gute Sicherheits-Praxis, nicht nur in Bezug auf Überwachung, da jedes Sammeln von Daten ohne Nutzer-Vorteil Risiko erzeugt.

Weiter führt man aus, dass man nicht denkt, dass es in Bezug auf Überwachungs-Aktivitäten helfen würde, die Persona-Server nach Europa umzuziehen und nennt dafür drei wesentliche Aspekte. Zunächst sei es unklar, ob andere Regierungen weniger widerrechtliche Überwachungsaktivitäten ausführen. Zudem sei Mozilla als US-Betrieb an die US-Gesetze gebunden, egal wo die Server stehen. Außerdem wolle man statt in ein Wettrüsten mit den US-Behörden zu gehen lieber seine Bemühungen darauf richten, dass die Gesetze geändert werden, so dass Nutzerdaten respektiert werden.

Mozilla stellt noch einmal heraus, dass sie immer ihr Möglichstes tun werden, um die Nutzer zu schützen und dafür sorgen wollen, dass das Gesetz ihnen dabei hilft. Man verweist noch einmal auf die Petition StopWatching.Us und bittet um Unterschriften.

Linux Professional Institute

Bereits Ende April konnten wir berichten, dass es auf der Ubucon 2013 LPI-Prüfungen geben wird. Die Prüfungen werden am Samstag, den 12. Oktober 2013 zu vergünstigten Konditionen angeboten.

Ab sofort ist auch eine Anmeldung zu den LPI-Prüfungen über das Webformular möglich. Die Kosten liegen je nach LPI Prüfung zwischen 50 und 90 Euro bzw. bei 150 Euro für die Prüfung LPI-301.

Weitere Informationen findet man auf der zugehörigen Programmseite.

Im Vergleich zum Betriebssystem aus Redmond ist Linux eine regelrechte Plaudertasche. Statt kryptischer Fehlermeldungen erhält man meist recht klare Informationen was schief gelaufen ist und teilweise sogar klare Anweisungen wie der Fehler zu beheben ist. Linux schickt auch viele Informationen als Mail an den jeweiligen Benutzer. Diese Mails kann man unter /var/mail/root für root und unter /var/mail/$user einsehen, wobei $user für den jeweiligen Nutzernamen steht.
Komfortabler ist es natürlich, wenn die Systemmails direkt im Email-Client gelesen werden können. Ich verwende als Email-Client Thunderbird (bzw. das Debian-Pendant Icedove) und habe vor kurzem erfahren, dass es ganz einfach ist die Systemmails mit Thunderbird abzurufen.

Dazu muss man lediglich ein neues Konto vom Typ Unix Mailspool (Movemail) anlegen. Diesen Kontentyp kann man in Thunderbird unter Neu → Andere Konten hinzufügen.

Konten-Assistent{.aligncenter .size-medium .wp-image-19 width=“300” height=“250”}

Darauf trägt man bei Email-Adresse $user@$hostname ein, wobei $user wieder für den eigenen Benutzer und $hostname für den hostname steht. Wenn man sich unsicher ist, was der eigene hostname ist kann man das recht einfach erfahren indem man

    hostname

in ein Terminal tippt.

Konten-Assistent{.aligncenter .size-medium .wp-image-24 width=“300” height=“250”}
Danach gibt man in den Konteneinstellungen bei den Einstellungen für den Server als Benutzernamen wieder den eigenen Benutzernamen ein und unter Server localhost.

Konten-Einstellungen{.aligncenter .size-medium .wp-image-25 width=“300” height=“272”} Im letzten Schritt muss die Datei /etc/aliases folgendermaßen bearbeitet werden:

    # /etc/aliases
    mailer-daemon: postmaster
    postmaster: root
    nobody: root
    hostmaster: root
    usenet: root
    news: root
    webmaster: root
    www: root
    ftp: root
    abuse: root
    noc: root
    security: root
    root: $user

Dabei ist es wichtig bei root: in der letzten Zeile den eigenen Benutzernamen einzutragen, damit die Mails an den Benutzer root auch im Thunderbird erscheinen.

Vielen Dank an Saxman, der mir dies im df.de erläutert hat.

[Update 2017-09-11]

Seit heute lasse ich mir die Systemmails über XMPP zusenden.

Im Vergleich zum Betriebssystem aus Redmond ist Linux eine regelrechte Plaudertasche. Statt kryptischer Fehlermeldungen erhält man meist recht klare Informationen was schief gelaufen ist und teilweise sogar klare Anweisungen wie der Fehler zu beheben ist. Linux schickt auch viele Informationen als Mail an den jeweiligen Benutzer. Diese Mails kann man unter /var/mail/root für root und unter /var/mail/$user einsehen, wobei $user für den jeweiligen Nutzernamen steht.
Komfortabler ist es natürlich, wenn die Systemmails direkt im Email-Client gelesen werden können. Ich verwende als Email-Client Thunderbird (bzw. das Debian-Pendant Icedove) und habe vor kurzem erfahren, dass es ganz einfach ist die Systemmails mit Thunderbird abzurufen.

Dazu muss man lediglich ein neues Konto vom Typ Unix Mailspool (Movemail) anlegen. Diesen Kontentyp kann man in Thunderbird unter Neu → Andere Konten hinzufügen.

Konten-Assistent{.aligncenter .size-medium .wp-image-19 width=“300” height=“250”}

Darauf trägt man bei Email-Adresse $user@$hostname ein, wobei $user wieder für den eigenen Benutzer und $hostname für den hostname steht. Wenn man sich unsicher ist, was der eigene hostname ist kann man das recht einfach erfahren indem man

    hostname

in ein Terminal tippt.

Konten-Assistent{.aligncenter .size-medium .wp-image-24 width=“300” height=“250”}
Danach gibt man in den Konteneinstellungen bei den Einstellungen für den Server als Benutzernamen wieder den eigenen Benutzernamen ein und unter Server localhost.

Konten-Einstellungen{.aligncenter .size-medium .wp-image-25 width=“300” height=“272”} Im letzten Schritt muss die Datei /etc/aliases folgendermaßen bearbeitet werden:

    # /etc/aliases
    mailer-daemon: postmaster
    postmaster: root
    nobody: root
    hostmaster: root
    usenet: root
    news: root
    webmaster: root
    www: root
    ftp: root
    abuse: root
    noc: root
    security: root
    root: $user

Dabei ist es wichtig bei root: in der letzten Zeile den eigenen Benutzernamen einzutragen, damit die Mails an den Benutzer root auch im Thunderbird erscheinen.

Vielen Dank an Saxman, der mir dies im df.de erläutert hat.

[Update 2017-09-11]

Seit heute lasse ich mir die Systemmails über XMPP zusenden.

Es ist einfach nicht schön einen Blog mit nur einem nichts sagenden Eröffnungspost online zu stellen. Deshalb habe ich beschlossen hier ein CD-Review zu Ensiferum – Unsung Heroes, welches ich am 25.08.2012 für ein privates Forum verfasst habe, online zu stellen.
In der Regel fallen meine Worte zu neuen Alben dort eher kürzer aus, aber da ich diese CD recht ausführlich beschrieben habe, möchte ich mein Review mit der Allgemeinheit teilen und zur Diskussion stellen. Dazu möchte ich aber gleich anmerken, dass ich einiges heute, da die CD mittlerweile den Dauertest bestehen musste, anders bewerten würde.

Ensiferum – Unsung Heroes

Ensiferum - Unsung Heroes
Albumcover{.aligncenter width=“250” height=“250”}

Die CD kommt im Digipack mit einer DVD, welche ein Studio-Tagebuch über die Entstehung vom Album beinhaltet. Die DVD hab ich noch nicht angeschaut, da mich das auch erst mal gar nicht interessiert. Während asunder die CD in meine Sammlung rippt schau ich mir mal die Hardware an:
Das Digipack ist, wie bei Ensiferum üblich, mit einer hübschen (fast schon kitschigen) Wikinger-Zeichnung bedruckt. Ist eigentlich recht schick, aber durch die Farbgebung (pink, wtf?) wirkt es diesmal doch schon arg kitschig. :D
Wie auch bei den anderen Alben enthält das Booklet, sämtliche Texte, ein Gruppenfoto der Band und Danksagungen.

So, asunder ist auch fertig, das Album erscheint in Clementine → los geht’s mit dem ersten Hören. :)”)

Symbols
Ein relativ seichtes Intro mit gezupften Klängen und später zurückhaltendem Einsatz von Streichern und Bläsern. Relativ nichtssagend, könnte auch Hintergrundmusik von Spielen wie Gothic oder mittelalterlichen Filmen sein. Bisher das definitiv schwächste Ensi-Intro.

In My Sword I Trust
Kennt man ja vom Video, ein typischer Ensiferum-Song. Nichts außergewöhnliches aber lässt sich anhören, solide Kost wie man sie von Ensi gewohnt ist.

Unsung Heroes
Der Titelsong beginnt erst mal in einem für Ensi ungewöhnlichen Rhythmus entwickelt sich aber schnell zu einem typischen Ensiferum-Song mit heiserem Gesang abgewechselt durch clean vocals und Chorgesang, melodischen Gitarren überlagert durch Keyboardmelodien. Neu ist, dass der Chorgesang in diesem Song teilweise klassische Tiefe hat. Ähnlich den Gesängen in Hollenthons Opus Magnum oder Tyrants and Wraith.

Burning Leaves
Beginnt mit einer flotten, fröhlichen Melodie und führt diese auch bis zum Rest des Liedes fort, zwischendurch wieder das obligatorische Wechselspiel zwischen Growls (naja, ist bei Ensi ja eher heiseres Schreien als growling :D) und clean vocals. Bei den cleanen Passagen fällt allerdings eine Veränderung in der Gesangsart auf. So habe ich das bisher noch auf keiner Ensi-CD vernommen. Klingt fast schon wie Mainstream-Gesang…
Ok, daran ist erstmals nichts auszusetzen da es gut ist wenn Bands experimentieren und nicht jedes Lied gleich klingt, aber ich hoffe dass sie das in den kommenden Songs und Alben nicht weiterführen. :D
Gegen Ende kommt es nochmal zu einer ruhigeren Stelle mit finnischem Chorgesang.
[Nachtrag:]{style=“text-decoration: underline;“} Beim zweiten Hören fällt mir auf, dass die cleanen Passagen etwas an Amorphis erinnern.

Celestial Bond
Ein Lied der ruhigeren Töne mit lieblichem Frauengesang. Vergleichbar mit Mourning Heart vom 2. Album Iron.

Retribution Shall Be Mine
Nachdem mit Celestial Bond Geschwindigkeit rausgenommen und leisere Töne angeschlagen wurden geht es hier wieder etwas ruppiger zur Sache.
Ein flotter Einstieg in den Song mit für Ensiferum-Verhältnisse ungewöhnlich viel Bassdrum und Petri bellt die Vocals raus. Auch wenn später dezent einsetzende Orchesterpassagen und clean vocals plus Chor wieder kurzzeitig etwas Geschwindigkeit rausnehmen geht der Song ziemlich “straight forward” und wird wohl ein schweißtreibender Moshpit-Kracher für Live-Auftritte werden.

Star Queen (Celestial Bond PartII)
Das Lied startet mit einer Instrumentalen Passage, später setzen auch E-Gitarren ein, werden aber schnell wieder rausgenommen und es folgt Gesang in clean vocals. Zum melodischen Refrain mit Ohrwurmcharakter dürfen die E-Gitarren dann auch wieder einsetzen.
Insgesamt ein eher softes, sehr melodisches Lied das ins Ohr geht.

Pohjola
Pohjola ist wieder ein flotterer Song, der finnisch gesungen wird. Der Text stammt von Yrjö Koskinen (1803 – 1903), scheint also etwas älter zu sein. ;)”)
Die Stimmung des Liedes ist durchaus wieder sehr fröhlich, die Chöre erinnern aber teilweise wieder etwas an Hollenthon. Später wird eine Stelle des Liedes eher gesprochen als gesungen, was mich sehr an ein altes Finntroll-Lied erinnert. Das Lied gefällt mir durchweg ziemlich gut, vereinzelte Ähnlichkeiten zu Hollenthon oder Finntroll stören mich nicht, da das beides ebenfalls gute Bands sind und es sich wirklich nur um Ähnlichkeiten handelt. Ensiferum bleiben ihrem Stil treu, obwohl sie auf diesem Album wieder etwas anders klingen.

Last Breath
Last Breath ist ein ruhigeres Lied ohne E-Gitarren, dafür mit Flöten etc. :)”) Der Song transportiert eine ganz coole, teilweise etwas düstere, Stimmung.

Passion, Proof, Power
Ein sehr episches Stück, welches mit orchestralen Klängen beginnt und anschließend mit melodischem Gesang begeistert. Darauf folgen Klavierklänge, lieblicher Frauengesang und dann treten sie aufs Gas und starten mit E-Gitarren und dem Petri-typischen heiseren Gesang durch. Auch später im Song setzt immer Mal wieder der Frauengesang oder ein Chor ein.
Dieses Lied enthält alles, Melodic-Death-Passagen, Frauengesang, Chöre, Gitarrensoli und epische, orchestrale Passagen und sogar Pferdegewieher, Hühnergegacker (! :D) und einen deutschen Dialog
(“Hey, was machst du so?”
“Joar nicht viel, meine Frau ist gerade los und kauft Wurst, ich denk ich geh auf ein Bier ins Zwielicht-Gasthaus¹.”
“Super, da komm ich mit.”
“Hier her, hier entlang! Willkommen edle Herren. Bei uns sind die Weiber schön und die Männer wild. Es gibt reichlich zu essen, das beste Bier. Und am Ende des Tages werden wir eine (???) Hexe dem Feuer übergeben. Vorher lasst euch unterhalten von weitgereisten Spielleuten, welche ebenfalls verbrannt werden, sollten sie ihre Spielzeit überziehen.”
“Entschuldigen Sie bitte, wer spielt denn heute Abend?”
Der Zwielicht-Gasthaus-Wirt (?): “Ensiferum und Finntroll aus Finnland!”
“Ja, wunderbar!” ).
Ein tolles Lied, das 17min lang unterhält ohne dabei langweilig zu werden. :)”)
[Nachtrag:]{style=“text-decoration: underline;“} Der deutsche Dialog wurde anscheinend von den apokalyptischen Reitern beigesteuert. ;)”)

Bamboleo
Nach Metallicas Battery und Uria Heeps Lady in Black mal wieder eine Coverversion. Diesmal rücken sie Gipsy Kings’ Bamboleo zu Leibe.
Was soll man dazu sagen, ein Partykracher halt. :D

Bamboleo, bambolea\ Porque mi vida, yo la prefiero vivir asi\ Bamboleo, bambolea\ Porque mi vida, yo la prefiero vivir asi

[Fazit]{style=“text-decoration: underline;“}
Nach dem ersten Hören scheint es wieder eine solide Arbeit von Ensiferum zu sein, die ihr Geld wert war. Ich denke ich werde die CD in den nächsten Tagen etwas intensiver hören und schauen ob sie den Dauertest besteht oder schnell langweilig wird. Ich bin mir aber ziemlich sicher, dass ich an dem Album dauerhauft meine Freude haben werde. Nach dem ersten Durchgang hat sich noch kein Lied als Favorit herausgestellt, da das ganze Album durchwegs auf hohem Niveau angesiedelt ist. Einzig Bamboleo hat schon Kultfaktor. :D

¹ Twilight-Tavern vom vorigen Album From Afar? :D

Nachdem mein aktuelles Notebook so langsam den Geist aufgibt war es an der Zeit ein neues zu suchen.
Da ich seit 10 Jahren Linux nutze wollte ich natürlich ein Notebook ohne Windows erwerben, ob es ohne Betriebssystem, mit einem Linux oder FreeDOS ausgeliefert wird war mir dabei recht egal. Wichtig war mir nur, dass ich keine Windows-Lizenz mit kaufe mit der ich nichts anfangen kann.
Leider musste ich feststellen, dass es kaum Shops gibt die ihre Notebooks ohne Windows verkaufen. Auf den Webseiten der Hersteller kann man so einiges konfigurieren, aber das Windows kann man selten abwählen.
Um einen kleinen Merkzettel mit Shops, welche ihre Notebooks auch ohne Windows verkaufen, zu haben und eventuell anderen Interessenten, welche auch kein Windows kaufen wollen, eine Sammlung bereit zu stellen veröffentliche ich hier die Anbieter, welche ich gefunden habe.

Eine kleine Auswahl von Laptops ohne Windows gibt es unter notebooks-billiger.de und auch bei den Suchmaschinen von geizhals.at, cyberport.de und amazon kann man gezielt nach Notebooks ohne Windows suchen. Die Auswahl ist allerdings sehr eingeschränkt und um mehr Treffer zu erzielen und auch höherwertige Notebooks zu finden muss man doch etwas suchen. Nun folgt die Liste der gefundenen Anbieter, welche ihre Notebooks auch ohne Windows verkaufen. Sollte jemand weitere kennen, würde ich mich auf einen Hinweis per Kommentar freuen. Wer weiß wann ich wieder ein neues Notebook benötige und mich über jeden Hinweis freue. 😀

**[Nachtrag 2013-09-20: Besser-PC hinzugefügt.]
**

Ich möchte ausdrücklich darauf hinweisen, dass ich die genannten Verkäufer nicht getestet habe und deshalb auch keinen ausdrücklich empfehlen kann. Ebenso kann ich nicht garantieren, dass die ohne Windows verkauften Notebooks mit bestimmten Distribution bzw. allgemein mit Linux out of the box funktionieren.

Ich habe mittlerweile mein nächstes Notebook gefunden und bestellt. Ohne Windows, aber nicht von einem der genannten Shops sondern über einen Kontakt aus einem Linuxforum. Um welches Notebook es sich handelt und wie die Einrichtung unter Linux (voraussichtlich Debian Testing) verlief werde ich hier berichten, wenn es soweit ist. 😉

Vielen Dank an hikaru, der einen Artikel zum Notebook-Kauf im df.de veröffentlicht hat, der reichlich Kontroverse hervorrief und mich daran erinnert hat, dass es sinnvoll ist eine Liste zu erstellen, falls man mal wieder in der gleichen Situation ist.