ubuntuusers.de

29. Juni 2013

(Kubuntu ist die KDE Version von Ubuntu)
Die für den Oktober 2013 geplante Kubuntu Version 13.04 wird den von Canonical entwickelten »Mir«-Screen-Server nicht unterstützen. Dies stellte der Lead-Developer in seinem Blog-Artikel klar.
Durch die Entwicklung von Mir wurde, wie in den Kommentaren zu dem letzten Beitrag schon erwähnt, die Entwicklung vom X-Server ersatz Wayland rasant voran getrieben, sozusagen aus dem Dornröschen-Schlaf geholt.
Der Entwickler Riddell findet klare Worte für die Eigenentwicklung von Canonical:

It’s a shame the Linux desktop market hasn’t taken off as we all hoped at the turn of the millennium and they feel the need to follow a more Apple or Android style of approach making an OS which works in isolation rather than as part of a community development method.

Riddell will sich auch an die Pläne der KDE-Community halten und ab Version 14.04 LTS Wayland als X-Server ersatz nutzen. Somit wird die Entwicklung von Wayland durch das nun weiterhin existierende Konkurrenzprodukt Mir weiterhin rasant vorangetrieben.

Durch diese Konkurrenz untereinander, muss ich leider zugeben, wirklich viel in der Linux-Welt bewegt. Wayland war bis vor 2-3 Wochen wirklich noch ein Ersatz, welcher Tief und fest schlief. Nun ist er dank Mir wieder da, wie ein mit Ritalin-Getankter Bulle(Übertrieben, i know).

Nun denn, hoffen tue ich auf den “Sieg” von Wayland, dies scheint mir eher der Ersatz zu sein, welcher sich durchsetzen wird. Debian wird in nicht absehbarer Zeit wohl auch zu einem der Alternativen Umsteigen, da der X-Server immer mehr Sicherheitskritische Bugs hervorruft, besonders in letzter Zeit. Leider hat die Konkurrenz zwischen den beiden o. genannten Ersätze den Nachteil, dass der X-Server die Unterstützung zu verlieren scheint; ist zwar schade, aber ich glaube das dort noch genug Entwickler dabei sind, um etwas zu reißen.

Nachtrag 30.06.2013 um 14:30: Ich muss meine Meinung revidieren. Es scheint, als ob die meisten Medien dass ganze aufgrund von Mir, die “Story” fehlinterpretieren und sagen, dass Wayland nun weiter sei… Wayland scheint nie in wirklichem Schlaf gewesen zu sein.
Außerdem wurden wohl immer wieder Fanboy-Artikel ins Netz gestellt. Dazu hatte einer der Entwickler von KDE(Martin Gräßling) etwas geschrieben: http://blog.martin-graesslin.com/blog/2013/04/the-history-on-wayland-support-inside-kwin/
Aufgrund dessen dulde ich keine Beleidigungen ihm gegenüber, nur weil er etwas kommentiert(Ich habe diese kommentare gar nicht erst Freigeschaltet, sondern direkt gelöscht). Jemanden als “Arschloch”, “Hurensohn” oder anderes zu bezeichnen, nur weil er seine Meinung äußert ist recht Assozial. Ich bitte euch, dies zu unterlassen. Konstruktive Kommentare und Meinungen, welche Sachlich und ohne Beleidigung geschrieben wurden sind natürlich weiterhin willkommen.

Sucht man eine einfache und schlanke Lösung um eine Musiksammlung als HTML5-Musik-Player zur Verfügung zu stellen dann ist Zeya das Programm der Wahl.

Es ist einfach installiert, da die meisten Linux-Distributionen ein Paket bereitstellen.

Zeya Webinterface

Nach der Installation kann das Programm einfach gestartet werden. Man kann man den Port via -p festlegen. Außerdem kann man von drei Backends wählen. Normal wird das Backend „dir“ benutzt, dabei liest Zeya alle Dateien im aktuellen oder über den --path= definierten Ordner ein. Man kann auch Playlists (.m3u & .pls) oder die Rhythmbox-Musikbibliothek nutzen.

zeya -p 33333 --backend=rhythmbox

Danach kann Zeya über die ip-Adresse und Port aufgerufen werden. Alles was man braucht ist ein nicht veralteter Browser (der

Weitere Informationen gibt es auf der Projektseite und im ubuntuusers.de-Wiki. Die Lizenz ist die [AGPLv3][5].

[5]: https://www.gnu.org/licenses/agpl-3.0.html „Lizenztext auf gnu.org“

Ubuntu will den neuen Display-Manager “Mir”, welcher den X-Server ersetzen soll, ab 13.10 mit Fallback Modus in Ubuntu integrieren. Dies wurde erst letzte Tage durch einen Mailinglisten-Post und einem Blogeintrag begleitet. Es heißt außerdem, dass Ubuntu ab 14.04 keine Alternative mehr anbieten wird – und auch keinen Fallback Modus. Es hieß dass die Treiber den ersatz “Mir” dann zu unterstützen haben.
Ausserdem wurde noch veröffentlicht, dass nun “Xmir” bei Ubuntu 14.04 LTS benutzt werde,- Persönliche Meinung – wahrscheinlich um die Aktzeptanz von “Mir” weiter zu steigern -/Persönliche Meinung Ende-.
Die Entwickler sind ausserdem sehr Optimistisch, dass Mir ab Ubuntu 14.04 wohl von aktuellen Treibern unterstützt wird.
In Ubuntu 14.10 soll dann der “Mir stack” zum Standard werden, bei dem dann standardmäßig Unity 8 direkt und ohne zwischengeschalteten X-Server auf Mir laufen soll; mit einem “rootless” laufenden X-Server sollen X-Anwendungen in diesem Szenario im Fenster laufen können.

Unter Xmir sollen aber auch andere Desktop-Umgebungen ohne Code-Änderungen betreibbar sein, so wie die Entwickler es in diesem Heise.de Video machen. Die Pläne, den Mir-Server als Standard einzuführen wäre von der Community, den Vorstandsräten und den (Entwicklungs-)Leitern anderer Projekte mit Ubuntu abgesegnet worden.
Herrlich zu hören ist, dass einer der wichtigsten Kubuntu Entwickler am Mittwoch noch schrieb, dass Kubuntu weder auf “Mir” noch auf “xMir” umsteigen werde.(Artikel: Heise-Meldung).
Für alle, welche Lust haben Mir vor der Veröffentlichung schon auszuprobieren, finden eine Anleitung auf Olli Ries Website


Persönliche Meinung zu dem Artikel:
Ich finde es schade, dass Ubuntu meint sich jetzt noch mehr von Debian und seinen Wurtzeln zu entfernen, und sogar noch die Inkompabilität von Projekten untereinander zu fördern. Dies wurde aber schon letztes mal bei dem Artikel-Kontest von Ubuntuusers.de bei den Kommentaren klar, zum #3 Platz.
Ich möchte nicht behaupten, dass Debian das beste oder Tollste sei, aber es ist halbwegs stabil und setzt auf Langzeit-Unterstützungen, die Ubuntu wohl nie wirklich bieten wird. Ausserdem werden bei denen ständig die Pläne gewechselt – erst ist es von Gnome zu Unity, dann von der Normalen Suche zu einer “Amazon”-Suche – wo die Leute als Beta-Tester missbraucht wurden -, und jetzt vom einzigen Standard, welcher sich länger gehalten hat, als eine Banane, bevor sie Schimmelt: X-Server. Ich hoffe nur, dass dieser Mir ersatz wirklich so gut ist, ansonsten werde ich wohl demnächst mehr über den Wechsel von Ubuntu zu anderen Alternativen schreiben müssen.
/Persönliche Meinung

Nach meinem Umstieg von Windows auf Linux vor ~10 Jahren war eines der wenigen Programme, die mir fehlten ein ordentliches Homebanking-Programm. Mit Mühe und Not bekam ich GNUCash dazu meine Bankgeschäfte per HBCI auszuführen, diese Lösung gefiel mir jedoch nie, da es sprichwörtlich mit Kanonen auf Spatzen geschossen war. Bei Moneypenny scheiterte ich immer am Kompilieren und Moneyplex sagte mir nie zu.
Zum Glück stolperte ich irgendwann über Hibiscus eine Java-Homebanking-Anwendung mit HBCI-Unterstützung für die Jameica-Plattform. Das Programm bietet alle Funktionen, die ich benötige und lässt sich einfach bedienen. Dass es unter der GPL veröffentlicht wird, also freie Software ist, ist natürlich ein weiterer Pluspunkt.
Leider gibt es Jameica/Hibiscus nicht in den Debian-Repositories, ich hoffe aber dass sich das ändert da ich es mir “gewünscht” habe. 😄 Hätte ich die Zeit und die nötige Kompetenz würde ich mich ja darum kümmern, so bleibt mir nur zu hoffen, dass sich jemand dem Programm annimmt. 😉 Wie das geht hat Apo in seinem Blog, zwar auf Spiele bezogen aber das lässt sich transferieren, erklärt.
Wer es sich einfach machen möchte kann das Ubuntu-PPA auch unter Debian nutzen. Das ist zwar quick ’n dirty aber hat bei mir in der Vergangenheit gut funktioniert. Ich bin dazu übergegangen Jameica einfach nach /opt/ und anschließend Hibiscus nach /opt/jameica/plugins/ zu entpacken. Damit kann man schon arbeiten. Wenn man möchte kann man noch per

# ln -s /opt/jameica/jameica.sh /usr/local/bin/jameica


eine Verknüpfung anlegen damit man Jameica per Alt+F2 oder im Terminal per jameica starten kann und nicht den vollen Pfad angeben muss.
Ich persönlich habe mir mit alacarte einen Anwendungsstarter erstellt, den ich in die Schnellstartleiste von Gnome3 eingefügt habe.
Der Nachteil meiner Lösung ist, dass ich regelmäßig im Blog von Olaf Willuhn (dem Programmierer von Jameica/Hibiscus) nachschauen muss ob eine neue Version verfügbar ist, da ich am Paketmanagement vorbei installiert habe.

[![Kontoauszüge in
Jameica/Hibiscus](https://www.willuhn.de/products/hibiscus/screenshots/thumb/12.png){width="150"
height="116"}](https://www.willuhn.de/products/hibiscus/screenshots/12.png)

Kontoauszüge in Jameica/Hibiscus\
Quelle: <https://www.willuhn.de/products/hibiscus/screenshots.php>

Nach meinem Umstieg von Windows auf Linux vor ~10 Jahren war eines der wenigen Programme, die mir fehlten ein ordentliches Homebanking-Programm. Mit Mühe und Not bekam ich GNUCash dazu meine Bankgeschäfte per HBCI auszuführen, diese Lösung gefiel mir jedoch nie, da es sprichwörtlich mit Kanonen auf Spatzen geschossen war. Bei Moneypenny scheiterte ich immer am Kompilieren und Moneyplex sagte mir nie zu.
Zum Glück stolperte ich irgendwann über Hibiscus eine Java-Homebanking-Anwendung mit HBCI-Unterstützung für die Jameica-Plattform. Das Programm bietet alle Funktionen, die ich benötige und lässt sich einfach bedienen. Dass es unter der GPL veröffentlicht wird, also freie Software ist, ist natürlich ein weiterer Pluspunkt.
Leider gibt es Jameica/Hibiscus nicht in den Debian-Repositories, ich hoffe aber dass sich das ändert da ich es mir “gewünscht” habe. 😄 Hätte ich die Zeit und die nötige Kompetenz würde ich mich ja darum kümmern, so bleibt mir nur zu hoffen, dass sich jemand dem Programm annimmt. 😉 Wie das geht hat Apo in seinem Blog, zwar auf Spiele bezogen aber das lässt sich transferieren, erklärt.
Wer es sich einfach machen möchte kann das Ubuntu-PPA auch unter Debian nutzen. Das ist zwar quick ’n dirty aber hat bei mir in der Vergangenheit gut funktioniert. Ich bin dazu übergegangen Jameica einfach nach /opt/ und anschließend Hibiscus nach /opt/jameica/plugins/ zu entpacken. Damit kann man schon arbeiten. Wenn man möchte kann man noch per

# ln -s /opt/jameica/jameica.sh /usr/local/bin/jameica


eine Verknüpfung anlegen damit man Jameica per Alt+F2 oder im Terminal per jameica starten kann und nicht den vollen Pfad angeben muss.
Ich persönlich habe mir mit alacarte einen Anwendungsstarter erstellt, den ich in die Schnellstartleiste von Gnome3 eingefügt habe.
Der Nachteil meiner Lösung ist, dass ich regelmäßig im Blog von Olaf Willuhn (dem Programmierer von Jameica/Hibiscus) nachschauen muss ob eine neue Version verfügbar ist, da ich am Paketmanagement vorbei installiert habe.

[![Kontoauszüge in
Jameica/Hibiscus](https://www.willuhn.de/products/hibiscus/screenshots/thumb/12.png){width="150"
height="116"}](https://www.willuhn.de/products/hibiscus/screenshots/12.png)

Kontoauszüge in Jameica/Hibiscus\
Quelle: <https://www.willuhn.de/products/hibiscus/screenshots.php>

28. Juni 2013

Das ogv-Format bietet sich an, wenn man ein Video im Web (www) veröffentlichen möchte das ohne Flash angeschaut werden kann. Bei .ogv handelt es sich um Videos im ogg-Containerformat. Im Container befinden sich die Audiodaten als Ogg Vorbis und die Videodaten als Theora.

Zur Umwandlung braucht es einen Konverter. Zwar gibt es Programme mit grafischer Oberfläche, ein Konsolenprogramm ist aber meist kleiner und fällt im Hintergrund nicht weiter auf. Bekannte Programme sind ffmpeg und avconv, deren Syntax aber recht komplex ist.

Einfacher und schneller geht die Umwandlung mit ffmpeg2theora. Die Syntax ist einfacher und das Programm erfordert kein Syntax-Diplom:

ffmpeg2theora eingabedatei.mp4

Selbst bei komplexeren Aufgaben bleibt die Syntax einfach, egal ob man die Metadaten bearbeiten will oder den Gamma-Wert anpasst. Das Programm bietet leicht zugänglich viele Funktionen.

Wer öfter nach ogg und ogv umwandeln muss, der ist mit dem ffmpeg2theora gut beraten.

Die Anwendung im Repository wahrscheinlich jeder Linux-Distribution und ist unter der GPLv2+ lizenziert.

Beim versuch ein git zu klonen trat der folgende Fehler auf:

warning: remote HEAD refers to nonexistent ref, unable to checkout.

Die Lösung ist ganz simpel, es existiert kein master branch. Das Problem tritt meistens bei neu erstellten Repositorys auf.

Master Branch erstellen

Um den master Branch bei gerrit zu erstellen bin, ich wie folgt vorgegangen.

Nach dem klonen in das Repository Verzeichniss gehen (cd Repository) und Dateien bearbeiten, hinzufügen etc.

Mit git add . und git comment -m “Anpassungen xzy” Dateien hinzufügen.

Zum Schluss die Dateien auf den gerrit übertragen und den Masterbranch erstellen git push ssh://hermann@git.itbasic.de:29418/projektx master.

Bereits in der vergangenen Woche und erstmals im November hatte ich darüber berichtet, dass Firefox ein überarbeitetes Logo erhält. Mozilla hat dieses nun offiziell vorgestellt und die Motive hinter dem neuen Logo erklärt. Das neue Logo ist bereits Bestandteil der gestern erschienenen Beta-Version von Firefox 23.

Mozilla betitelt die Ankündigung zum neuen Logo im Creative-Blog mit den Worten Ein neues Firefox-Logo für eine neue Firefox-Ära. Man erklärt, dass Firefox vor nicht so langer Zeit ein einfacher und simpler Desktop-Browser war. So wie das Web sich weiterentwickelt hat, so ist auch Firefox gewachsen; zu einem Browser für Desktop-Geräte und Android, einem ganz neuen mobilen Betriebssystem und einem App-Marktplatz – viele Veränderungen in kurzer Zeit. Aus Sicht von Mozilla ein Anlass, um dies auch im Firefox-Logo widerzuspiegeln.

Das grundsätzliche Konzept hinter dem Logo ist, wie unschwer zu erkennen ist, identisch geblieben. Aber es wurde modernisiert, um die Rolle von Firefox im sich ständig wandelnden Web zu reflektieren. Anders als in den bisherigen Versionen – dies ist bereits die vierte Version des Firefox-Logos – wurde diese Version speziell mit Mobile im Hinterkopf entwickelt. Es wurde optimiert, um vor allem auf kleinen Bildschirmen und Geräten mit niedrigen Auflösungen besser auszusehen, skaliert des Weiteren aber auch gut auf HiDPI-Bildschirmen. Anders als die vorherigen Versionen kann das neue Logo außerdem auch besser als SVG-Grafik nachgebildet werden. SVG-Kompatibilität und und Farb-Konsistenz waren Probleme mit dem bisherigen Logo, wie Mozillas Logo-Designer Sean Martell in seinem Blog schreibt. Man habe über die letzten Jahre Feedback gesammelt, dieses dokumentiert und mit dem neuen Logo umgesetzt.

Bildquelle: blog.seanmartell.com

Martell erklärt, dass Simplifizierung nicht unbedingt meint, alles auf geometrische Basis-Formen und Einfarbigkeit zu reduzieren, sondern unter anderem auch durch verbesserte Farb-Balance, Kontrast und Form erreicht werden kann. Details wurden teilweise entfernt, aber teilweise an anderen Stellen hinzugefügt, um hochauflösenden Bildschirmen gerecht zu werden. Der Simplifizierungsprozess war nicht nur auf das Aussehen fokussiert, sondern auch auf die Struktur des Logos, um dieses SVG-kompatibel zu machen. In seinem Blog geht Martell detaillierter auf die Änderungen des neuen Logos ein.

Bildquelle: blog.mozilla.org/creative/

Update 02.07.2013: Auch die Nightly- und Aurora-Versionen von Firefox erhalten ein überarbeitestes Logo.

27. Juni 2013

Wasserhahn

In seinem Blog fragt Dennis Erdmann „Wer liest noch RSS–Feeds?”. RSS ist ja immer wieder ein Thema — vor 2 Jahren, als der RSS–Button aus dem Firefox entfernt wurde.  Oder vor Kurzem, als Google das Ende seines Google Readers ankündigte. Und ich bin mittlerweile der Ansicht, dass RSS gleichzeitig unter– und überschätzt wird.

Ich habe TinyTinyRSS installiert und lese dort gelegentlich per Android-App. Das ist mittlerweile ein echt guter Reader – der natürlich Stand-Alone ist und deswegen keine tollen Empfehlungen macht usw. Ich habe mir ein Addon im Firefox installiert, das mit wieder den RSS–Button in der Adress-Zeile anzeigt – Firefox erkennt die RSS–Links ja im Header der Seite und wenn ich den Button klicke, leitet mich Firefox auch automatisch an mein TinyTinyRSS weiter, wo das neue Abo dann nur 2–3 Klicks bedeutet.

Für’s Ironblogging ist RSS unersetzlich – alternativ müsste jemand manuell die Blogs absurfen und gucken, ob gebloggt wurde.

Und unmöglich wäre auch das automatische Posten der Artikel per Kiel1337-Twitter-Account – Unter anderem aus diesen Links wird dann „Der WebMontag” – Und das lese ich eigentlich ganz gerne.

Das Problem ist auch nicht RSS als Format, sondern die Nutzung. Als Nutzer muss man mit einem RSS–Reader selbst seine Balance finden: Was sind die richtigen Feeds? Wo gibt es zu viel Infos? Was mach ich, wenn ich mal keine Zeit habe, die übliche Menge Artikel zu lesen? Fühle ich mich unter Druck gesetzt, wenn viele Artikel ungelesen markiert sind? RSS–Reader machen so ein ähnlich schlechtes Gefühl, wie ein schlecht organisiertes Mail-Postfach. Dabei sagt ja niemand, dass man das alles auch wirklich lesen muss und dass man etwas verpasst, wenn man einfach ab und zu “alles gelesen markieren” klickt. Der Reader bietet aber die Chance, interessante Artikel zu finden, wenn man denn mal Zeit dafür hat. RSS ist wie ein Wasserhahn, aus dem ständig Wasser läuft — nur verschwendet man das Wasser nicht. Man kann aber bei Gelegenheit draus trinken.

RSS als Angebot im eigenen Blog bietet eine Menge Möglichkeiten und es frisst kein Brot. RSS ist eher für den “Long-Tail”. Deswegen ergibt es keinen Sinn, würde man es tot sagen. Man weiß halt nicht, wann man es mal wieder braucht.

In vier Monaten erscheint Ubuntu 13.10 mit dem Namen Saucy Salamander. Nachdem Canonical mit Ubuntu Phone stark am arbeiten ist, dachte ich, dass sie die Desktop-Version ein bisschen vernachlässigen. Aber weit gefehlt. Die Einführung ihres neuen Display-Servers MIR, die für Ubuntu 14.04 LTS geplant war, wird nun auf die nächste Version vorgezogen.

Neues von MIR

MIR wird standardmäßig in Ubuntu 13.10 benutzt werden. Das neue Unity, Unity 7, wird aber anscheinend noch nicht Nativ unter MIR laufen, sondern mittels XMir, einer Kompabilitätsschicht für den X-Server unter Ubuntu funktionieren.
Dies funktioniert nur mit den offenen Treibern (Intel, Nouveau und Radeon). Wer einen proprietären Treiber für eine AMD/Nvidia Grafikkarte verwenden will, für den gibt es einen Fallback-Modus mit dem Standard-X-Server, der schon immer unter Ubuntu eingesetzt wurde.
Proprietäre Treiber sollen erst unter Ubuntu 14.04 laufen (was ich persöhnlich für etwas zu optimistisch halte)
via OMGUbuntu und webupd8

Radeon Treiber jetzt mit Stromsparfunktionen

Ich habe einen PC mit Dual-Graphics, also einer leistungsfähigen Grafikkarte von AMD und einer stromsparenden Onboard-Grafik von Intel. Diese Kombination unter Ubuntu zum laufen zu kriegen war gar nicht so einfach und funktioniert nur unter Ubuntu 12.04.
Der freie Radeon-Treiber unterstützt zur Zeit noch keine Stromsparfunktionen, so dass der Akku sehr schnell leer wird und der Lüfter die ganze Zeit am laufen ist.
Daher machte mir diese Meldung heute viel Hoffnung, dass ich bald auf meinem Laptop upgraden kann und auch auf den Catalyst-Treiber verzichten kann.
Ab Kernel 3.11, der im September erscheint, soll es soweit sein.

Fazit

Wenn der Radeon-Treiber ab September dann ähnlich gut funktioniert wie der Catalyst-Treiber und auch MIR Fortschritte macht, dann freue ich mich schon sehr auf Ubuntu 13.10 und Ubuntu 14.04 LTS.
Auch das Mobilsystem, Ubuntu Touch, macht Fortschritte, wie man hier und hier sehen kann, so dass man vielleicht schon ab nächsten Jahr Ubuntu auf allen Geräten haben kann.

Seit einer Woche rennt (!) Arch Linux nun wieder auf meinem Haupt-PC und ich bin wirklich begeistert. Zwar habe ich Arch Linux auch zuvor schon ein paarmal angetestet, aber mich scheinbar nie komplett darauf eingelassen. In der Woche, die natürlich keine extrem lange Zeitspanne darstellt, gab es nicht das winzigste Problem: keine Abstürze, keine Abhängigkeitsprobleme (offizielle Paketquellen) beim Installieren von Software, keine durch grafische Tools ausgelöste seltsame Konfigurationen.

Eine vollständige Systemaktualisierung unter Arch

Eine vollständige Systemaktualisierung unter Arch

Der einzige Wermutstropfen gegenüber Ubuntu ist und bleibt die etwas geringere Auswahl an vorkompilierter Software. Für Ubuntu gibt es für wirklich jedes Programm ein PPA, dass die Installation erleichtert (im Gegenzug aber möglicherweise so einiges zerschießt). Bei Arch finden sich zwar viele Programme im AUR, diese müssen aber noch kompiliert werden, was je nach Hardware einige Zeit benötigen kann. Außerdem sind einige Pakete im AUR nicht ganz ordentlich gepflegt, so dass durchaus mal Abhängigkeitsprobleme beim Kompilieren auftreten können. Das ist aber keinesfalls die Regel.

Gespannt bin ich auf die erste größere Update-Aktion, die trotz Rolling-Release immer mal wieder bei Arch Linux auftaucht. So hatte ich bei einem vorherigen Versuch ein paar kleinere Probleme auf systemd umzusteigen und kurz bevor ich nun den erneuten Versuch gewagt habe, wurden Programme nach /usr/bin umgezogen, was auch ein wenig Handarbeit erforderte. Trotzdem sollten sich diese Updates deutlich einfacher und schneller erledigen lassen, als ein Upgrade von der alten auf die neue Ubuntu-Version.

Wie es weitergeht, erfahrt ihr natürlich hier in meinem Blog. Um das nicht zu verpassen, kannst du meinem Blog sehr gerne bei Twitter folgen oder den RSS-Feed abonieren :-)

Ab Version 23 unterstützt Firefox Version 1.0 der W3C-Spezifikation von Content Security Policy (CSP). Das ursprünglich von Mozilla entwickelte Sicherheitskonzept soll vor allem Schutz vor Cross-Site-Scripting-Attacken (XSS) bieten.

CSP wurde ursprünglich von Mozilla entwickelt und wird von Firefox seit Version 4.0 unterstützt. Andere Hersteller wie Google hatten das Konzept aufgegriffen und mittlerweile gibt es eine Spezifikation des W3C, welche seit November 2012 den Status der Candidate Recommendation besitzt, sich aber in einigen Punkten von der Mozilla-Implementierung unterscheidet. Mit Firefox 23 gleicht Mozilla seine Implementierung weitestgehend an den (Beinahe-) Standard an. Die kleineren Unterschiede sowie die Unterschiede zur alten Implementierung in Firefox erläutert Mozilla in einem Blog-Eintrag.

Wikipedia beschreibt die Probleme des klassischen Sicherheitskonzeptes folgendermaßen:

Webseiten können aktive Inhalte beispielsweise in Form von JavaScript-Code enthalten. Wenn die Webbrowser diesen Code ausführen, erzwingen sie die Einhaltung der Same-Origin-Policy. Dies bedeutet, dass Code von einer Quelle nicht auf Inhalte einer anderen Quelle zugreifen darf. So darf beispielsweise der Code in der Webseite eines Angreifers nicht auf die Elemente einer Onlinebanking-Webseite zugreifen.

In der Praxis sind jedoch Cross-Site-Scripting-Schwachstellen sehr verbreitet, wodurch die Same-Origin-Policy ausgehebelt wird. Eine Cross-Site-Scripting-Schwachstelle entsteht, wenn sich eine Webseite durch fehlerhafte Maskierung Code unterschieben lässt. Aus Sicht des Browsers kommt dieser untergeschobene Code aus der gleichen Quelle wie die angegriffene Webseite.

CSP verbietet standardmäßig den Einsatz von Inline-Skripten, Skripte müssen dabei in eigene Dateien ausgelagert werden. Über eine Whitelist wird dann definiert, von welchen Quellen der Browser die Skripte ausführen darf. Aber nicht nur für Skripte, sondern auch für CSS-Dateien, Schriftarten, Bilder und anderes gibt es Whitelists. Des Weiteren kann festgelegt werden, mit welchen Servern mittels WebSockets oder AJAX kommuniziert werden darf. Eine praktische Funktion von CSP ist außerdem, dass CSP-Verletzungen auf dem Server protokolliert werden können.

Während CSP 1.0 bereits auf fortgeschrittenem Weg zum Standard ist, befindet sich auch schon Version 1.1 der Spezifikation in Arbeit, an welcher auch Mozilla wieder mitwirkt. Chrome unterstützt CSP 1.0 seit Version 25, der Internet Explorer 10 unterstützt lediglich die in CSP 1.0 optionale Sandbox-Direktive, welche wiederum Firefox nicht unterstützt. Webentwickler können sich eine Einführung in CSP auf HTML5 Rocks durchlesen.

Seit einer Woche rennt (!) Arch Linux nun wieder auf meinem Haupt-PC und ich bin wirklich begeistert. Zwar habe ich Arch Linux auch zuvor schon ein paarmal angetestet, aber mich scheinbar nie komplett darauf eingelassen. In der Woche, die natürlich keine extrem lange Zeitspanne darstellt, gab es nicht das winzigste Problem: keine Abstürze, keine Abhängigkeitsprobleme (offizielle Paketquellen) beim Installieren von Software, keine durch grafische Tools ausgelöste seltsame Konfigurationen.

Eine vollständige Systemaktualisierung unter Arch

Eine vollständige Systemaktualisierung unter Arch

Der einzige Wermutstropfen gegenüber Ubuntu ist und bleibt die etwas geringere Auswahl an vorkompilierter Software. Für Ubuntu gibt es für wirklich jedes Programm ein PPA, dass die Installation erleichtert (im Gegenzug aber möglicherweise so einiges zerschießt). Bei Arch finden sich zwar viele Programme im AUR, diese müssen aber noch kompiliert werden, was je nach Hardware einige Zeit benötigen kann. Außerdem sind einige Pakete im AUR nicht ganz ordentlich gepflegt, so dass durchaus mal Abhängigkeitsprobleme beim Kompilieren auftreten können. Das ist aber keinesfalls die Regel.

Gespannt bin ich auf die erste größere Update-Aktion, die trotz Rolling-Release immer mal wieder bei Arch Linux auftaucht. So hatte ich bei einem vorherigen Versuch ein paar kleinere Probleme auf systemd umzusteigen und kurz bevor ich nun den erneuten Versuch gewagt habe, wurden Programme nach /usr/bin umgezogen, was auch ein wenig Handarbeit erforderte. Trotzdem sollten sich diese Updates deutlich einfacher und schneller erledigen lassen, als ein Upgrade von der alten auf die neue Ubuntu-Version.

Wie es weitergeht, erfahrt ihr natürlich hier in meinem Blog. Um das nicht zu verpassen, kannst du meinem Blog sehr gerne bei Twitter folgen oder den RSS-Feed abonieren :-)

26. Juni 2013

Ich möchte mit dem Programm specto untersuchen, ob sich auf einer Webseite der Inhalt ändert. Leider ist specto in den Ubuntu-Repositories derzeit defekt, so dass man folgende Fehlermeldung erhält: "the network connection seems to be down" Dieses Problem lässt sich manuell beheben, indem man in der Datei /usr/share/pyshared/spectlib/watch.py einige Zeilen auskommentiert: sudo nano /usr/share/pyshared/spectlib/watch.py Jetzt sucht man folgende Stelle: def check_connection(self): if not self.specto.connection_manager.connected(): self.specto.logger.log(_("No network connection detected"), "

Ich möchte mit dem Programm specto untersuchen, ob sich auf einer Webseite der Inhalt ändert.
Leider ist specto in den Ubuntu-Repositories derzeit defekt, so dass man folgende Fehlermeldung erhält:
"the network connection seems to be down"

Dieses Problem lässt sich manuell beheben, indem man in der Datei /usr/share/pyshared/spectlib/watch.py einige Zeilen auskommentiert:

sudo nano /usr/share/pyshared/spectlib/watch.py

Jetzt sucht man folgende Stelle:

def check_connection(self):
if not self.specto.connection_manager.connected():
self.specto.logger.log(_(“No network connection detected”), “warning”, self.name)
self.specto.connection_manager.add_callback(self.start_checking)
self.specto.mark_watch_status(“no-network”, self.id)
return False
else:
self.specto.mark_watch_status(“idle”, self.id)
return True

…und ändert sie um in:

def check_connection(self):
# if not self.specto.connection_manager.connected():
# self.specto.logger.log(_(“No network connection detected”), “warning”, self.name)
# self.specto.connection_manager.add_callback(self.start_checking)
# self.specto.mark_watch_status(“no-network”, self.id)
# return False
# else:
self.specto.mark_watch_status(“idle”, self.id)
return True

Jetzt findet specto bei mir das Netzwerk, und die Überwachung läuft.. ;)

Weblinks

via

share this

Minetest ist ein Open World Game ohne endlichem Spielziel. In der offenen Welt, die dynamisch generiert wird, muss man Mineralien und andere Rohstoffe abbauen. Aus den Rohstoffen kann man sich Werkzeuge, Waffen und andere Gegenstände herstellen (engl.: craften).

Minetest, das initial ein Minecraft-Klon war, ist in der Programmiersprache C++ verfasst und basiert auf der Irrlicht-Engine auf der auch SuperTuxKart basiert.

Das Spiel das sich wie Minecraft als digitales Lego beschreiben lässt, kann durch Mods (kurz für Modifikationen) einfach erweitert werden. Diese sind durch die einfache API und die Unterstützung der Scriptsprache Lua einfach zu entwickeln.

Computer auf dem Minetest läuft Arbeitsecke mit großer Buchauswahl und Computer mit Crafting Guide Ein bescheidenes Heim auf einem Berg mit großer Treppe Typische Höhle mit Minenbahn

Das Spiel bietet zwei Spielmodi. Im kreative „Creative“-Modus hat man unendlich Ressourcen und kann Rohstoffe sehr schnell abbauen. Im „Survival“-Modus, der normale Spielmodus, muss man überleben. Mit Waffen und Häuser kann man sich gegen die Monster verteidigen die in der Nacht erscheinen. Um sich die Waffen oder Festungen bauen zu können braucht es natürlich Rohstoffe.

Das Spiel ist noch nicht „Feature Complete“, zeitweise wurden die Monster zwischen den Versionen verbessert und zeitweise entfernt, wenn sie nicht den Ansprüchen genügten. Durch Mods kann man aber in jeder Version in den süßen Genuss einer gefährlichen Monsterbedrohung kommen.

Generell kommt erst richtig Spaß auf, wenn man das Spiel mit ein paar Mods erweitert hat. Die Mods bezieht man momentan noch aus dem Forum, ein Paketmanager für Mods ist aber angedacht.

Das Spiel ist Freie Software und unter der LGPLv2.1+ veröffentlicht. Es kann für Linux, Mac OS X und Microsoft Windows heruntergeladen werden. Für die meisten Linux-Distributionen stehen Pakete im jeweiligen Repository bereit die jedoch veraltet. Etwa in allen aktuellen Ubuntu-Version. Über die PPA der Entwickler kann man die neuste Version beziehen. Bei Debian Testing sowie Unstable und aktuelleren Distributionen wie etwa Arch Linux besteht das Problem nicht. Auf der Downloadseite sind immer die richtigen Quellen für die jeweiligen Distributionen verlinkt.

Hier im Blog wird demnächst eine Liste mit empfehlenswerten Mods veröffentlicht.

Es kamen in letzter Zeit immer öfter Gerüchte auf, dass bestimmte Werbeinhalte von Adblock-Plus angezeigt werden, welche aufgrund von Bezahlung als “Unbedenklich” gekennzeichnet werden. Es steht nun immer öfter im Raum, dass auch unbeliebte Inhalte als “Werbung” gekennzeichnet werden, um ein Ankratzen des Images der Software zu verhindern.
Dazu hatte z.B Sascha Pallenberk auf Mobilegeeks.de einen Ausführlichen Artikel geschrieben.
Das Traurige an AdBlockPlus ist ja, dass es kaum Populäre Alternativen gibt, die wirklich etwas taugen.
So habe ich mir von someonewhocares.org die /etc/hosts Datei geholt und verschiebe diese mit…

$ sudo cp ~/Downloads/hosts /etc/hosts

von meinem Download Ordner in das richtige Verzeichnis(/etc).

Der Vorteil einer solcher Datei liegt schon laut der eigenen Definition auf der Hand:

Manchmal wird die Hosts-Datei dazu verwendet, bekannte Werbeserver zu blockieren, indem sie als Alias für 127.0.0.1 eingetragen werden. Die Besonderheit dieser Methode gegenüber den zu installierenden Werbefiltern ist, dass diese Sperrung systemweit Gültigkeit hat, also nicht nur auf einen Browser beschränkt ist. Darüber hinaus kann man solche Filter auch gegen manche Schadprogramme einsetzen, wenn diese Anweisungen von bereits bekannten Servern abzurufen versuchen.

Die exzessive Verwendung dieser Datei kann jedoch den gesamten Prozess der Namensauflösung verlangsamen, da diese Datei nicht für große Datenmengen optimiert ist. Vorgefertigte Dateien für die Verwendung als Werbefilter oder DNS-Ersatz sind im Internet erhältlich.

(http://de.academic.ru/dic.nsf/dewiki/824)

Mein persönliches Problem an dieser Vorfertigung ist, dass ich mir diese ständig neu holen muss(mit der Hand :O) und dass es keine größere IP/Adressen-DB gibt. Was macht man da also? Genau. Man zieht sich die Datei(sind insgesamt 330KB momentan) jeden Tag mittels Eintrag in der Crontab neu nach /etc/:
(/etc/crontab)

1 0     * * *   root  cd /etc && wget -c http://someonewhocares.org/hosts/hosts

Hierbei sei dennoch zu beachten, dass sich das nicht für Rechner eignet welche nicht dauerhaft am Internet hängen. Ansonsten wird man erstmal ein paar Sekunden warten müssen, da wget erstmal mehrere Versuche zum Verbinden unternehmen wird.

Zum Artikel von Mobilegeeks.de:
Ich mag seine Argumentation, welche mir durchaus schlüssig erscheint. Es ist wirklich ziemlich komisch, dass der Typ Geld aus einem Kostenlosen Addon gewinnen kann, UND auch noch 15 Mitarbeiter(Stellenanzeigen für neue schon geschaltet) einstellen kann. Also, wo kommt es her?
Es soll angeblich von einem Mysteriösen Partner kommen, welcher nicht genannt wird. Nirgendwo. Niemals.
Der zweite Partner, Till Faida, spricht von irgendwelchen Mysteriösen Strategischen Partnern und nimmt sich natürlich raus, diese nicht nennen zu können. Es sei einfach nicht in dem Interesse der eigenen Firma…” Klar doch. Deshalb gibt er zu, dass sich diese auf die Whitelist gekauft haben, bei einer Schweizer Zeitung.
Der Autor des Artikels verweist außerdem darauf, dass sich dieser Faida selbst-beweihräuchert: Erst mit irgendwelchen Communitys, welche auf seine Privatadresse registriert sind, dann mit einer “Unabhängigen-“Community, welche auch auf ihn registriert ist(“leider gehoert chrome-plugins.org auch Herrn Faida.” von Mobilegeeks.de)

Aber dazu wirds interessant: Da ist noch einer, ein Christian Dommer. Der war bei Sedo, diesen Protzigen Web-Werbe-Spammern, welche eigentlich nur mist verbreiten. Das Interessante: ” Zu ihr gehoeren neben Sedo die Marken GMX, web.de, 1und1, united Domains und affilinet. affilinet ist nach eigener Angabe Deutschlands fuehrendes Affiliate Netzwerk im Affiliate Marketing.”(Quote). Da Frag ich mich, warum “GMX” als sicherer wie web.de verkauft wird – scheint der gleiche Scheiß zu sein.
Alles in allem, ein Lesenswerter Artikel.
Und da ich den nun schon 2-Mal Verlinkt habe, möchte ich noch ein Drittes mal darauf hinweisen
Nachtrag 28.6.2013: Nachdem ich nun Mehrfach die Empfehlung bekommen habe, mir Adblock Edge anzusehen, bin ich davon überzeugt meinen Fork zu AdblockPlus gefunden zu haben. Keine komischen JS-Scripts, keine Mysteriösen grünen Links. Vollkommen Zufrieden :)

25. Juni 2013

In der technischen Mechanik lernt man als Student das Berechnen von Lager- und Stangenkräften in Fachwerken. Die Vorgehensweise ist dabei stets die gleiche und es läuft letztendlich auf das Lösen von linearen Gleichungssystemen (LGS) hinaus.

Der Gauß'sche Algorithmus beschleunigt das Berechnen zwar gegenüber dem Einsetzungsverfahren, jedoch geht das ganze doch noch erheblich schneller, wenn man den Computer das LGS lösen lässt.

Astoria-Megler bridge

Auch das Fachwerk der Astoria-Megler Bridge wurde von Ingenieuren berechnet

Hierzu kann man z.B. das weit verbreitete (kommerzielle) Programm Matlab verwenden, oder das Open-Source-Äquivalent GNU Octave. Beide Programme sind weitestgehend gleich in der Eingabe, weswegen diese Anleitung für beides verwendet werden kann.

Die Aufgabe

Gegeben ist ein Fachwerk mit 9 Stäben, einem Festlager und einem Loslager. Es greifen zwei Kräfte in negative y-Richtung an das Fachwerk an. Alle vertikalen und horizontalen Stangen haben die Länge von 1 m.

Zu berechnen sind die Lagerreaktionen sowie die Kräfte in den einzelnen Stäben.

fachwerk_bejonet

Aufstellen der Gleichungssysteme

Zunächst werden die Lagerreaktionen mit dem Kräfte- und Momentengleichgewicht bestimmt.

Die Eingabe in Octave sieht hierbei folgendermaßen aus:

octave:1> C=[1 1; 0 3];
octave:2> d=[13;22];
octave:3> E=C\d
E =
5.6667
7.3333

lagerreaktionWeitaus interessanter wird die Bestimmung der Stangenkräfte. Hier wird jeder Knoten freigeschnitten und damit für jeden Knoten einzeln das Kräftegleichgewicht aufgestellt. Darüber erhalten wir ein 12x9 Gleichungssystem, das wir über Octave lösen wollen.

Ich nutze hier gleich die Matrixschreibweise A·x=b, um die Übersichtlichkeit zu bewahren.

lgsWer etwas ungeübt ist, was diese Schreibweise betrifft: Jede Zeile steht für eine Gleichung. Dabei sind die einzelnen Spalten jeweils der Vorfaktor für f1..f9, in der Reihenfolge, wie sie in der zweiten Matrix stehen. Die oberste Zeile ist das Kräftegleichgewicht in Knoten 1 in x-Richtung. Die zweite Zeile ist Knoten 1 in y-Richtung usw..

Jetzt muss man dieses Gleichungssystem eigentlich nur noch lösen.

Eingabe in die Software

Dieses noch recht übersichtliche Gleichungssystem muss man nun in Matlab bzw. Octave eintippen. Matlab hat hierfür ein recht ansehnliches Tool (das erinnert ein bisschen an ein Tabellenkalkulationsprogramm), in Octave ist man noch gezwungen, das händisch einzutippen. Die Syntax sieht dann folgendermaßen aus:

octave:4> t=sin(pi/4);
octave:5> A=[
> t 1 0 0 0 0 0 0 0;
> t 0 0 0 0 0 0 0 0;
> -t 0 0 1 0 0 0 0 0;
> -t 0 -1 0 0 0 0 0 0;
> 0 -1 0 0 t 1 0 0 0;
> 0 0 1 0 t 0 0 0 0;
> 0 0 0 -1 -t 0 0 t 0;
> 0 0 0 0 -t 0 -1 -t 0;
> 0 0 0 0 0 -1 0 0 1;
> 0 0 0 0 0 0 1 0 0;
> 0 0 0 0 0 0 0 -t -1;
> 0 0 0 0 0 0 0 t 0];
octave:6> b=[0;5.667;0;0;0;-4;0;0;0;-9;0;7.333];
octave:7> F=A\b
F =
F =
    8.0139
   -5.6667
   -5.6667
    5.6667
    2.3570
   -7.3333
   -9.0000
   10.3709
   -7.3333

Das Ergebnis wird gleich ausgegeben. So einfach lassen sich also die Stabkräfte eines Fachwerks mit Open-Source Software berechnen.

[Bildquelle: David J Laporte, CC-by]

Seit ca. 6 Monaten sind bei mir zwei Raspberry Pi Systeme als HTPC im Einsatz. Als Distribution wird die aktuelle Version 3.06 von openELEC genutzt, die als Front-End XBMC nutzt.

Vor einigen Monaten hatte ich hier im Blog ja bereits viele Informationen zu der Pi Allgemein und zu meinem Setup preisgegeben. Heute hab ich mir gedacht es wäre mal an der Zeit ein Fazit zu ziehen, wie sich die Raspberry Pi als Media Center im Alltagsbetrieb macht.

Raspberry Pi - Allgemein (Teil 1)
Raspberry Pi - Media Center/XBMC (Teil 2)
Raspberry Pi - Media Center/XBMC (Teil 3)

Die Pi bietet für 35-40€ ein absolut fantastisches Preis-Leistungs Verhältnis. Selbst bei Media Playern im Bereich von über 100€ ist es selten ein so anpassbares Gerät zu finden. Dank XBMC gibt es eine große Auswahl verschiedener Skins, bei denen jeder Nutzer seinen Favorit wählen kann.
Durch das integrierte Add-On System kann man enorm viele Erweiterungen runterladen und installieren. Es gibt kaum eine Videoplattform (YouTube, Vimeo) die man hier nicht findet.

Meiner Meinung nach ist XBMC die mit Abstand beste Software Lösung für ein Media Center.



Die Videowiedergabe funktioniert bei bestimmten Voraussetzungen wunderbar. Besonders streng sind diese Voraussetzungen allerdings nicht. Videos sollten im MKV, MP4 oder AVI Container vorliegen. Als Codec darf h264, divx, xvid und mit gekauftem Plugin auch MPEG2 und VC-1 genutzt werden. Audio kann eigentlich in jedem beliebigem Format vorliegen. Hatte die Pi anfangs noch Probleme mit DTS, so ist dies bei den neueren Distributionen durch viel Software-Optimierung größtenteils behoben.
Einzig sollte die Bitrate bei h264 20Mbit nicht überschreiten, da es sonst zu Ruckeln kommt.

Wie ich bereits oft angemerkt habe, ist es empfehlenswert zum Streaming NFS als Freigabe zu verwenden. SMB, AFS und DLNA sind alle etwas langsamer und so kann es beim Abspielen zu Rucklern kommen. Falls kein NFS zur Verfügung steht, sollte man am ehesten noch SMB nutzen.

Auch Live-TV beherrscht die Pi. Das heißt ihr könnt über verschiedene Add-Ons eure TV-Quelle einbinden. In meinem Fall ist die Quelle ein VU+ Receiver (Solo 2). Funktioniert in SD mit dem MPEG2 Codec recht gut. Allerdings kann man HD-TV vergessen. Viel zu oft gibt es hier Abbrüche oder Asynchronen Ton. Auch die 720p Sender von ARD und ZDF laufen nicht zufriedenstellend.

Airplay über iPhone oder iPad funktioniert leider auch sehr bescheiden. Ich hab es eigentlich noch nie hinbekommen, dass ein Stream länger als 10 Minuten läuft. Oft stürzt auch das gesamte System ab und man muss es neustarten. Wer eine zuverlässigen AirPlay Player will, sollte sich dann doch eher eine AppleTV zu legen.
Die Pi kann übrigens keine DRM-Geschützten Inhalte abspielen und auch AirPlay-Mirroring ist nicht möglich.

Auch muss ich Allgemein etwas über die Stabilität meckern. Es passiert einfach zu oft, dass sich die Pi in irgendwelchen Menüs aufhängt. Helfen tut hier dann oft nur ein Restart der Pi. Leider ist es dazu nötig das Gerät vom Strom zu trennen und wieder anzuschließen. Manchmal kann man über SSH aber auch einen Reboot anstoßen.
Positiv zu erwähnen ist, dass beim Abspielen von Videos Abstürze so gut wie nie auftreten. (Ausnahme Airplay)

Hier dann noch einige weitere positive Sachen die mir aufgefallen sind:

  • Es gibt immer noch sehr oft Updates. Daran sieht man, dass Entwickler weiterhin am optimieren sind.
  • CEC. Es gibt einfach nichts praktischeres als mit der TV-Fernbedienung die Oberfläche bedienen zu können. Dieses Feature bieten die meisten Media Player NICHT an.
  • iPhone und Android App als Fernbedienung oder um direkt Videos zu starten. Die offizielle iPhone App ist wunderschön gestaltet. Für Android empfehle ich eher Yatse, da die offizielle App wenig veraltet ist und wenig Features bietet.
  • Offen. An der Pi sieht man wiedermal wie toll offene Plattformen doch sind.



Und einige negative:
  • openELEC hat keine Auto-Update Funktion. Für Power-User kein Problem aber warum ist das nicht direkt in das System eingebaut? Wie es bei anderen Distributionen aussieht kann ich leider nicht sagen.
  • Blinkende und Leuchtende LEDs auf der Pi. Ich hab die LEDs abgeklebt da sie im Filmbetrieb am Abend einfach extrem nervig waren.
  • 3D nur über SBS oder OU Verfahren.
  • Performance. Man merkt im Menü doch immer mal das die Pi an der Grenze arbeiten muss. Auch HDTV funktioniert nicht. Ich hoffe das wir in den nächsten Monaten mit einer überarbeiteten Pi rechnen können (Dual-Core? )

So das war es erstmal. :-)

Mozilla hat mit Thunderbird 17.0.7 sowie Thunderbird ESR 17.0.7 planmäßig Sicherheits- und Fehlerbehebungsupdates für den freien E-Mail-Client veröffentlicht.

Thunderbird 17.0.7 respektive sein ESR-Pendant schließen insgesamt acht Sicherheitslücken. Davon werden vier als kritisch und vier als hohes Sicherheitsrisiko eingestuft. Ein Update auf die neuste Version ist damit jedem Nutzer von Mozillas E-Mail-Client dringend empfohlen.

Abgesehen von den geschlossenen Sicherheitslücken hat Mozilla mit Version 17.0.7 kleinere Fehler, insbesondere mögliche Absturzursachen, behoben.

Thunderbird 17.0.7 kann hier heruntergeladen werden. Der nächste Major-Release von Thunderbird wird mit Thunderbird 24 im Oktober erscheinen. Bis dahin erhält Thunderbird nur noch Sicherheits-Aktualisierungen.

Mozilla hat mit Thunderbird 17.0.7 sowie Thunderbird ESR 17.0.7 planmäßig Sicherheits- und Fehlerbehebungsupdates für den freien E-Mail-Client veröffentlicht.

Thunderbird 17.0.7 respektive sein ESR-Pendant schließen insgesamt acht Sicherheitslücken. Davon werden vier als kritisch und vier als hohes Sicherheitsrisiko eingestuft. Ein Update auf die neuste Version ist damit jedem Nutzer von Mozillas E-Mail-Client dringend empfohlen.

Abgesehen von den geschlossenen Sicherheitslücken hat Mozilla mit Version 17.0.7 kleinere Fehler, insbesondere mögliche Absturzursachen, behoben.

Thunderbird 17.0.7 kann hier heruntergeladen werden. Der nächste Major-Release von Thunderbird wird mit Thunderbird 24 im Oktober erscheinen. Bis dahin erhält Thunderbird nur noch Sicherheits-Aktualisierungen.

Der Beitrag Mozilla veröffentlicht Thunderbird 17.0.7 erschien zuerst auf soeren-hentzschel.at.

Nachdem ich schon vor einer Weile auf Chrome umgestiegen bin, weil Adobe leider den Flash-Support für Linux weitesgehend eingestellt hat, wollte ich mir heute mal die Zeit nehmen und die drei Browser, die ich im Moment verwende in verschiedenen Benchmarks gegeneinander antreten lassen, um zu sehen, wie es um deren Performance bestellt ist.

Testumgebungen

Für die Benchmarks verwendete ich die beiden von mir im Moment hauptsächlich verwendeten Systeme.

Navis, mein Heim-PC, läuft mit einem Intel i5-2400 dem 8 GiB RAM zur Verfügung stehen.

Navicula, mein Laptop, läuft mit einem Intel i3-2310M dem ebenfalls 8 GiB RAM zur Verfügung standen und dessen Programme von einer mSATA geladen werden.

Auf beiden Systemen läuft ein aktualisiertes Ubuntu 12.04.

Weitere Infos zur Ausstattung der Systeme findet ihr auf meiner Benutzerseite bei ubuntuusers.de

Testkandidaten

Getestet wurden von mir die drei Browser, die ich am häufigsten verwende.

  • Google Chrome geht als mein momentaner Standard-Browser in Version 28.0.1500.52 an den Start.
  • Google Chromium, die OpenSource-Variante des Webkit-Browsers aus dem Hause Google wurde in Version 25.0.1364.160 von mir getestet.
  • Firefox in Version 21 komplettiert die Liste der Testkandidaten. Momentan nutze ich den eigentlich nur für das Surfen über das TOR-Netzwerk. Für den Test ließ ich ihn allerdings direkt auf das Netzwerk zugreifen.

Opera habe ich diesmal außen vor gelassen, weil die demnächst auch auf Webkit wechseln und die Performance dann nicht mehr mit dem, was ich heute messen würde, übereinstimmt. Sobald sich die Wogen dort geglättet haben, steht aber auch da ein Test an.

Verwendete Benchmarks

Für meine Tests verwendete ich insgesamt vier Testumgebungen. Zunächst mussten sich alle getesteten Browser dem ACID3-Test unterziehen.

Hier gibt es erfreuliches zu berichten. Während in der Vergangenheit bei Tests meinerseits immer wieder mal 97/100 oder 99/100 von einzelnen Browsern als Ergebnis ausgegeben wurden, glänzten diesmal alle Browser mit:

Acid3-Ergebnis: 100/100

Nach diesem sanften Einstieg mussten sich die Browser dann im Browsermark von Rightware behaupten. Hier zeigte sich für mich durchaus erstaunliches. Chromium schnitt doch tatsächlich am besten ab. Auf dem Laptop sogar noch deutlicher als auf dem Heim-PC. Das hatte ich nicht erwartet. Der Firefox landet leider immer noch abgeschlagen auf dem letzten Platz.

Acid3-Ergebnis: 100/100

In der dritten Testumgebung, dem Peacekeeper-Benchmark von Futuremark zeigte sich dann das Bild, dass ich eigentlich auch beim Browsermark erwartet hatte. Wenn auch nur mit einer Nasenspitze, so liegt doch Chrome vor Chromium und Firefox belegt erneut mit deutlichen Performance-Unterschied den dritten Platz.

Acid3-Ergebnis: 100/100

Zu letzt teste ich die drei Browser ließ ich die drei Browser dann noch im Speed-Battle von u-uu.de gegeneinader antreten. Das Ergebnis kam für mich nach den anderen beiden Tests vollkommen unerwartet. Firefox gewinnt! Und zwar mit Abstand.

Acid3-Ergebnis: 100/100

Eine Antwort darauf, warum hier der Firefox vorne liegt muss ich leider schuldig bleiben. Überrascht hat es mich allemal.

Fazit

Da auch die gefühlte Performance beim Verwenden von Firefox noch nicht an die der Browser aus dem Hause Google heran reicht, werde ich wohl weiterhin bei Chrome/Chromium bleiben. Auch wenn die Neuerungen der letzten Zeit und die sinnvolle Reduzierung der Menü-Leisten den Wechsel zu Firefox für mich zumindest denkbar erscheinen lassen.

Mozilla hat heute Firefox 22 mit zahlreichen Verbesserungen veröffentlicht. Dieser Artikel fasst die wichtigsten Neuerungen des Mozilla-Browsers zusammen.

WebRTC: Videotelefonie & Dateitransfers ohne Plugin möglich

WebRTC ist derzeit in aller Munde. Dabei handelt es sich um eine Webtechnologie, welche Echtzeitkommunikation zwischen verschiedenen Clients beispielsweise in Form von Videotelefonie oder File-Sharing erlauben soll – plattformübergreifend und vollkommen ohne Plugin. Diese Technologie wird in den nächsten Jahren ohne Frage eine ganz wichtige Rolle im Web spielen. Derzeit arbeiten die verschiedenen Browserhersteller intensiv daran, ihre Browser um WebRTC-Fähigkeiten zu erweitern. Mit Firefox 22 ist WebRTC erstmals in Firefox standardmäßig aktiviert.

H.264, MP3 & AAC-Unterstützung für Windows Vista

Ohne Plugin ist auch eine treffende Beschreibung für die Unterstützung der proprietären Codecs H.264, MP3 und AAC. Diese werden bereits von Firefox OS, Firefox Mobile für Android und seit Version 21 auch von Firefox für Windows 7 und Windows 8 unterstützt. Mit Firefox 22 folgt nun auch die Unterstützung für Windows Vista. Übrigens: Ab Firefox 23 erfolgt die Wiedergabe dieser Codecs Hardware-beschleunigt, Linux-Nutzer können diese Neuerung ab Firefox 24 testen.

Flexbox, @supports, Web Notifications & weitere Standards

Firefox 22 unterstützt noch einige weitere großartige neue Standards. So kommt unter anderem standardmäßig aktiviert die Unterstützung für W3C CSS Flexible Box Layout, oder kurz: Flexbox, dazu. Dieser Standard wird Webdesignern das Leben in Zukunft deutlich einfacher machen. Bei den .net-Awards 2013 wurde Flexbox zur besten neuen Web-Technologie gewählt (vor WebRTC und Mozillas Firefox OS). Eine verständliche Einführung bietet HTML5 Rocks.

Ebenfalls standardmäßig aktiviert wurde nun die Unterstützung für CSS @supports und der entsprechenden DOM-API, über welche der Browser gefragt werden kann, ob er eine bestimmte CSS-Deklaration versteht, und entsprechend darauf reagieren kann.

Ein weiterer interessanter Standard, welchen Firefox ab Version 22 unterstützt, ist die W3C Web Notifications API. Diese erlaubt es Webseiten, Desktop-Benachrichtigungen anzuzeigen – die entsprechende Erlaubnis durch den Benutzer vorausgesetzt. Eine mögliche Anwendung hierfür wären Webmailer, welche über neue E-Mails benachrichtigen könnten, auch wenn Firefox gerade nicht im Vordergrund ist. Aber nicht nur für Webseiten ist dies interessant, auch Firefox und Thunderbird nutzen intern bereits diese neue API für Benachrichtigungen. Ab Firefox 23 sehen diese optisch auch ein wenig schöner aus.

Neu in Firefox 22 ist auch die Unterstützung der beiden HTML5-Elemente <time> und <data>. Die ClipboardData-API erlaubt JavaScript-Anwendungen den Zugriff auf die Zwischenablage. Des Weiteren kann mittels Pointer Lock-API der Mauszeiger – wieder die Erlaubnis durch den Benutzer vorausgesetzt – auch im Nicht-Vollbild ausgeblendet werden.

In HTML5-Videos ist es nun außerdem möglich, die Abspielgeschwindigkeit per Kontextmenü durch den Benutzer oder per API durch die Webseite zu ändern.

SocialAPI-Dienste über Add-ons-Manager verwalten und weitere Verbesserungen

Auch Mozillas SocialAPI hat weitere Verbesserungen erhalten. So können SocialAPI-Erweiterungen ab sofort über den Add-on-Manager aktiviert und auch deinstalliert werden. Dazu wurde Firefox dahingehend vorbereitet, solche Erweiterungen künftig über addons.mozilla.org herunterladen zu können. Dazu stehen ab Firefox 22 mit MSN Now, CliqZ und für japanische Firefox-Nutzer Mixi weitere SocialAPI-Erweiterungen bereit.

Verbesserungen in Bezug auf Plugins

Auch in Bezug auf Plugins gibt es Verbesserungen, so werden Plugin-Einstellungen nicht länger in der Datei pluginreg.dat gespeichert, womit sich unter Umständen selbst wieder aktivierende Plugins oder das Zurücksetzen der Click-to-Play-Einstellung auf Seitenbasis bei Plugin-Updates der Vergangenheit angehören sollten. Bei Plugins, welche per Blockliste von Mozilla auf Click-to-Play gesetzt worden sind, führt ein Klick auf den entsprechenden Platzhalter aus Sicherheitsgründen nicht mehr direkt das Plugin aus, sondern öffnet das Panel in der Adressleiste, um eine explizite Bestätigung durch den Benutzer zu fordern. Außerdem zeigt die Seite about:plugins nun wieder den Installationspfad der installierten Plugins an, diese Funktion war in Firefox 21 defekt. Der Schalter plugin.expose_full_path muss hierfür nicht mehr auf true stehen, sondern kann auf false stehen bleiben. Mit Firefox 24 gibt es diesen Schalter nicht länger.

3D-Spiele im Browser: asm.js-Compiler OdinMonkey unterstützt hochperformante Anwendungen

asm.js ist für Code ausgelegt, welcher über Compiler wie Emscripten oder Mandreel in JavaScript übersetzt worden ist, und soll die Ausführung von JavaScript spürbar beschleunigen können. Es handelt sich dabei um ein Subset von JavaScript, womit ein asm.js geschriebener Code auch von JavaScript-Engines ausgeführt werden kann, welche asm.js nicht unterstützen. Dafür optimierte Engines sollen allerdings JavaScript deutlich schneller ausführen und entsprechender Code ungefähr halb so schnell wie in C oder C++ geschriebener Code sein, womit die JavaScript-Performance vergleichbar mit C# respektive Java sein soll. Mit OdinMonkey ist der entsprechende Compiler in Firefox 22 gelandet.

Weitere Performance-Verbesserungen

Verbessert wurde außerdem der Speicherbedarf von Grafiken und die Zeit, welche es braucht, diese zu rendern, unter anderem durch Multithreading beim Dekodieren der Bilder. Auch das Scrollen auf manchen modernen Touchpads soll sich nicht mehr so langsam anfühlen. Ebenfalls verbessert wurde die Startzeit, wo man bis zu 10% schneller im Vergleich zur Vorversion sein möchte, und die WebGL Rendering-Performance. Die Skia-Grafikbibliothek wird durch OpenGL jetzt außerdem hardwarebeschleunigt.

Entwickler-Werkzeuge mit zweitem Theme, Schriftarten-Ansicht & neuem Performance-Tool

Die Entwickler-Werkzeuge von Firefox haben mit Version 22 wieder einmal zahlreiche Verbesserungen erhalten. So ist es ab sofort möglich, über about:config anstelle des hellen Themes ein dunkles Theme für den Inspektor einzustellen. Dazu muss der Schalter devtools.theme von light auf dark umgestellt werden. Ab Firefox 23 wird dies einfacher gehen – dann gibt es in den Entwickler-Werkzeugen ein Einstellungs-Panel, über welches sich diverse Einstellungen vornehmen lassen, darunter auch die Wahl des Themes. Die Entwickler-Werkzeuge waren bislang immer am unteren Fensterrand angedockt oder konnten als eigenständiges Fenster losgelöst werden. Als dritte Möglichkeit können die Entwickler-Werkzeuge jetzt am rechten Fensterrand angedockt werden. Beim Loslösen der Werkzeuge als eigenständiges Fenster wird in dessen Titelleiste außerdem die Domain des Tabs angezeigt, zu welchem diese Instanz der Werkzeuge gehört.

Die Web-Konsole öffnet beim Klicken auf den Dateinamen bei JavaScript-Fehlern nicht länger die Quelltext-Ansicht, sondern die entsprechende Stelle mit dem Debugger von Firefox und hat eine optisch leicht verbesserte Autovervollständigung erhalten. Optisch überarbeitet wurde auch der Debugger, welcher die verschiedenen Skripte einer Webseite nun auf der linken Seite untereinander anzeigt.

Eine weitere optische Verbesserung betrifft die Funktion Bildschirmgrößen testen. Die Scrollleisten werden in diesem Modus jetzt wie auf einem mobilen Gerät angezeigt. Außerdem gibt es hier nun einen Button zum Schließen dieser Ansicht.

Der Inspektor zum Untersuchen von Elementen einer Webseite hat ein neues Panel in der Sidebar erhalten, um die verwendeten Schriftarten zu untersuchen. Hier findet sich neben dem Namen der Schriftart und dem im CSS verwendeten Namen auch eine Information darüber, ob es sich um eine auf dem System installierte Schrift handelt oder gegebenenfalls die URL zur Schriftart, und außerdem der @font-face CSS-Code. Des Weiteren gibt es hier eine Vorschau in dieser Schrift, welche sich in einen beliebigen Text ändern lässt. Das Suchfeld des Inspektors hat außerdem eine Autovervollständigung für Elemente erhalten.

Verbesserungen gab es auch beim Stilbearbeitungs-Panel, welches jetzt auch Stylesheets anzeigt, welche per @import eingebunden werden. Außerdem warnt Firefox ab sofort beim Verlassen einer Seite, wenn CSS-Änderungen vorgenommen wurden, damit man diese im Falle eines versehentlichen Verlassens der Seite noch sichern kann.

Ein neues Feature hört auf den Namen Paint Flashing. Dieses markiert Bereiche einer Webseite jedes Mal farbig, wenn die Rendering-Engine von Firefox diese neu zeichnet. Dieses Feature kann bei der Performance-Optimierung von Webseiten helfen, da ein unnötiges Neuzeichnen von Bereichen vermieden werden sollte. Dieses Werkzeug kann auch über die Entwickler-Toolbar (Shift + F2) gesteuert werden. Hier gibt es außerdem nun ein Kommando für den JavaScript-Profiler und pref show <prefname> zeigt neben dem Wert des about:config-Schalters ab sofort auch nochmal den Namen des Schalters in der Ausgabe an.




Video auf YouTube ansehen

Sonstige Neuerungen

Plaintext-Dateien hatten bislang bei der Betrachtung in Firefox das Problem, dass die Zeilen nicht umgebrochen wurden, ab Firefox 22 werden die Zeilen umgebrochen. Über about:config kann das alte Verhalten wieder eingestellt werden, indem der Schalter plain_text.wrap_long_lines per Doppelklick auf false geschaltet wird. Seit Firefox 18 kann Firefox Bilder in einer deutlich besseren Qualität herunterskalieren. Der High-Quality-Skalierer wird nun auch zum Hochskalieren benutzt, solange die als image.high_quality_upscaling.max_size festgelegte Zahl nicht an Speicherbedarf überschritten wird.

Bei Benutzung des Vollbildmodus und dem anschließenden Auswählen eines anderen Monitors bei der Verwendung mehrerer Bildschirme wurde der Vollbildmodus bislang verlassen, nun beendet Firefox diesen nicht mehr automatisch. Außerdem ist die Unterstützung für die Font-Technologie Graphite2 standardmäßig aktiviert worden.

Unter Windows folgt Firefox auf HiDPI-Bildschirmen den Skalierungs-Einstellungen des Betriebssystems, was zu einer größeren Text-Darstellung auf diesen Bildschirmen führen kann. Geändert kann dies werden, indem über about:config der Wert von layout.css.devPixelsPerPx von -1.0 auf 1.0 geändert wird. Auf HiDPI-Systemen mit OS X werden in den Tabs nun hochauflösende Favicons verwendet, sofern vorhanden. Außerdem wird der Download-Fortschritt auf OS X nun im Firefox-Symbol im Dock angezeigt. Dazu kommen wie immer diverse Verbesserungen an Mozillas integriertem PDF-Betrachter, Plattform-Fixes und behobene Sicherheits-Lücken.

OpenVPN LogoEin eigener OpenVPN Server, über den der gesamte Internet-Traffic geleitet wird, hat viele Vorteile: Unsichere, freie WLANs werden für einen selbst abhörsicher, Geräte lassen sich – egal ob sie sich Zuhause im Festnetz oder im Mobilfunknetz befinden -  zu einem eigenen Subnetz inkl. eigener IPs zusammenfassen und das verbrauche Datenvolumen aller angemeldeter Geräte lässt sich zentral kontrollieren.

Meine beiden Ziele sind hauptsächlich die Verschlüsselung in unsicheren Umgebungen und die Möglichkeit, meinen gesamten Verbrauchten Traffic aller Geräte zentral am Server kontrollieren zu können (Z.B. mit vnstat). Es hieß, ein OpenVPN Server sei einfach einzurichten und unkompliziert. Hab mich dann also an die Arbeit gemacht und meinen eigenen VPN Server aufgesetzt. Dabei habe ich mich an diverse Anleitungen im Internet gehalten, aber mein Server wollte lange Zeit kaum funktionieren. Vor allem mit den Clients für Ubuntu hatte ich Probleme. Ich kam nicht ins Internet.

Also habe ich eine Menge recherchiert und Experten im ubuntuusers.de Forum befragt… und jetzt steht ich da mit einem gut funktionierendem OpenVPN Server. :) Ich will in diesem Artikel erklären, wie ich zu meinem OpenVPN Server gekommen bin. Vielleicht hilft er ja dem ein oder anderen, der auch gerade Probleme bei der Konfiguration hat.

OpenVPN Server installieren

Zuerst loggen wir uns ins Terminal ein und verschaffen uns Root-Rechte – Ohne die geht nix…

sudo -s

Die Installation von OpenVPN erledigen wir mit dieser Befehlskette:

apt-get update && apt-get install openvpn

Das OpenVPN Paket ermöglicht sowohl die Einrichtung eines Clients wie auch eines Servers. Was wir letztendlich erhalten, bestimmt die Konfigurationsdatei, die wir später anlegen.

Vorbereitung

Zuerst legen wir aber die Standardattribute für die Zertifikate fest, denn bei OpenVPN geschieht die Authentifizierung der Benutzer / Clients am Server mit Zertifikaten.

cd /etc/openvpn

Zum generieren der Zertifikate gibt es bereits fertige Scripts, die wir uns aus dem Beispielverzeichnis kopieren:

cp -R /usr/share/doc/openvpn/examples/easy-rsa/2.0 ./easy-rsa

Jetzt wechseln wir in den easy-rsa Ordner, wo wir zunächst die Standardattribute unserer Zertifikate anpassen:

cd easy-rsa
nano vars

Diese Stelle:

# This variable should point to
# the openssl.cnf file included
# with easy-rsa.
export KEY_CONFIG=$EASY_RSA/openssl-1.0.0.cnf

Muss zuerst angepasst werden (hier ist sie bereits korrigiert), sodass die OpenSSL Konfigurationsdatei unter dem oben stehenden Pfad gefunden werden kann. Diese Datei liegt in /etc/openvpn/openssl-1.0.0.cnf

Weil wir doch alle ein bisschen paranoid sind, wird diese Stelle auch noch so abgeändert. Das verschafft uns höhere Sicherheit:

# Increase this to 2048 if you
# are paranoid.  This will slow
# down TLS negotiation performance
# as well as the one-time DH parms
# generation process.
export KEY_SIZE=2048

Dieser Abschnitt:

# These are the default values for fields
# which will be placed in the certificate.
# Don't leave any of these fields blank.
export KEY_COUNTRY="DE"
export KEY_PROVINCE="BY"
export KEY_CITY="Landshut"
export KEY_ORG="meinserver.net"
export KEY_EMAIL="kjjasdhshdf@gmx.de"
export KEY_EMAIL=kjjasdhshdf@gmx.de
export KEY_CN="meinserver.net"
export KEY_NAME="Max Muster"
export KEY_OU=changeme
export PKCS11_MODULE_PATH=changeme
export PKCS11_PIN=1234

Muss an die eigenen Daten angepasst werden. (Land, Bundesland, Stadt, Organisation, zweimal E-Mail, Domain, unter welcher der Server erreichbar ist!, Name des Besitzers)

CA / Serverzertifikate generieren

Dann kann es ja jetzt los gehen mit dem Generieren der Certificate Authority und den Serverzertifikaten. Dazu wird der Editor beendet und unsere gerade geänderte vars-Datei “gesourced”:

source ./vars

Erst mal aufräumen:

./clean-all

Diffie-Hellman-Datei generieren:

./build-dh

Server-CA bauen:

./build-ca

Die Felder sollten bereits die passenden Standardwerte besitzen (Stehen in Klammern), sodass man die Eingabe mit [ENTER] überspringen kann.
Damit wäre die CA erstellt und die Serverzertifikate können erstellt werden:

./build-key-server meinserver.net

meinserver.net muss natürlich mit der eigenen Domain ersetzt werden, unter der der Server verfügbar ist.
Wieder können alle Felder mit [ENTER] übersprungen werden. Ein “Challenge Password” wird nicht gesetzt; zum Schluss muss noch zweimal mit “y” bestätigt werden. Das Serverzertifikat haben wir jetzt also auch. Alle generierten Zertifikate mit den zugehörigen Keys liegen jetzt in /etc/openvpn/easy-rsa/keys/

Den Server konfigurieren

Als nächstes wird die Serverkonfiguration vorgenommen:

nano /etc/openvpn/server.conf

Diese Konfiguration könnt ihr direkt übernehmen:

port 1194

proto udp

dev tun

ca easy-rsa/keys/ca.crt
cert easy-rsa/keys/meinserver.net.crt
key easy-rsa/keys/meinserver.net.key  # This file should be kept secret

dh easy-rsa/keys/dh2048.pem

server 10.8.0.0 255.255.255.0

push "redirect-gateway def1 bypass-dhcp"

push "dhcp-option DNS 208.67.222.222"
push "dhcp-option DNS 208.67.220.220"

push "topology subnet"
topology subnet

keepalive 10 120

comp-lzo

user openvpn
group openvpn

persist-key
persist-tun

verb 6

Nur die Namen der Zertifikatsdateien müsst ihr noch an die Dateinamen / bzw. die Domain eures Servers anpassen, dann ist die Konfiguration fertig. Den Server lassen wir als Benutzer und Gruppe “openvpn” laufen. Diese existieren aber noch nicht im System; das ändern wir jetzt:

sudo adduser --system --no-create-home --disabled-login openvpn
sudo addgroup --system --no-create-home --disabled-login openvpn

Iptables korrekt setzen

Damit die Clients Internetzugriff haben und sich nicht nur untereinander in ihrem Subnetz 10.8.0.0/24 verbinden können, müssen jetzt noch ein paar iptables Regeln erstellt werden. Dazu gebt ihr einfach folgende Befehlszeilen nacheinander in euer Terminal ein:

sysctl -w net.ipv4.ip_forward=1
iptables -A FORWARD -o eth0 -i tun0 -s 10.8.0.0/24 -m conntrack --ctstate NEW -j ACCEPT
iptables -A FORWARD -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE

Da diese Regeln beim nächsten Neustart des Servers nicht mehr gelten, lassen wir die Befehle automatisch bei jedem Serverstart ausführen. Öffnet die Datei /etc/rc.local (nano /etc/rc.local) und schreibt die oben stehenden Befehle vor das “exit 0″.

Diese Befehle werden bei jedem Start ausgeführt.

Diese Befehle werden bei jedem Start ausgeführt.

Mit der Serverkonfiguration sind wir jetzt fertig. Damit die Einstellungen angewendet werden, folgt jetzt noch ein abschließendes

service openvpn restart

Clientzertifikate erstellen

Jetzt sind die Clients dran.

Jeder Client benötigt 3 Dateien, um sich am Server anmelden zu können: Die Dateien ca.crt, clientname.crt und clientname.key. Der “clientname” kann variieren. “ca.crt” haben wir bereits erstellt, jetzt werden noch die Clientzertifikate generiert. Mit unserem Terminal sollten wir uns immer noch im Verzeichnis /etc/openvpn/easy-rsa/ befinden. Falls das nicht der Fall ist, wechselt in dieses Verzeichnis.

Ein neues Clientzertifikat wird mit folgendem Befehl erstellt:

./build-key thomas-nb

“thomas-nb” ist der Clientname, der beliebig wählbar ist. (Keine Sonderzeichen und Leerzeichen!). Die erstellten Zertifikatsdateien werden in diesem Fall thomas-nb.crt und thomas-nb.key heißen. Wählt also einen Namen, der möglichst aussagekräftig ist, sodass ihr die Zertifikate wiedererkennt und führt den Befehl damit aus.
Wieder werdet ihr nach den verschiedenen Attributen für das Zertifikat gefragt… und wieder könnt ihr die Felder überspringen, da die vars-Datei noch gesourced ist, in der bereits unsere Vorgaben stehen. An Schluss muss wieder zweimal mit “y” bestätigt werden. Sollten mal keine Vorgaben bereitstehen, muss die vars Datei wieder gesourced werden. Dazu einfach ein

source ./vars

eingeben, wie ihr es bereits zu Beginn dieser Anleitung getan habt. Die Vorgaben für die Zertifikatsfelder sind dann wieder verfügbar.
Als nächstes müsst ihr jeden eurer Clients mit seinen 3 Zertifikatsdateien versorgen, d.h. die Dateien müssen auf irgendeine Art und Weise auf die Clients übertragen werden. Welches Übertragungsmittel ihr benutzt, ist egal. Es bieten sich z.B. FTP und USB Sticks an. Alternativ könnt ihr natürlich auch jede der 3 Dateien öffnen und den Inhalt abschreiben ;)

Hier nochmal die Dateinamen, die jeder Client braucht:

  • ca.crt (CA Rootzertifikat)
  • clientname.crt (Clientzertifikat)
  • clientname.key (Schlüssel für das Clientzertifikat, geheim!)

Sobald wir diese Dateien vom Server auf den Client übertragen haben, können wir die Finger vom Server lassen und wenden und nun der Konfiguration der Clients zu.

OpenVPN Client konfigurieren

Installiert euch auch auf euren Clients openvpn:

sudo apt-get install openvpn

Grafische Konfiguration über Network-Manager Plugin

Im folgenden gehe ich davon aus, dass unter Ubuntu (Unity-Desktop) mit dem OpenVPN Plugin des Network-Managers eine Verbindung hergestellt werden soll. So ähnlich funktioniert die Einrichtung auch auf anderen Plattformen und Desktops.

Installieren wir zuerst das OpenVPN Plugin:

sudo apt-get update && sudo apt-get install network-manager-openvpn

Neben dem Plugin wird auch gleich der Rest des OpenVPN Servers / Clients mitinstalliert. Interessiert uns aber nicht weiter. Nach der Installation erstellen wir eine neue OpenVPN Verbindung. (Netzwerk-Symbol oben rechts => Verbindungen bearbeiten => Hinzufügen => OpenVPN => Erzeugen). Dann gebt ihr der Verbindung einen Namen, gebt die Serveradresse ein und sagt dem Programm, wo eure Zertifikatsdateien zu finden sind. (Zertifikat des Benutzers: clientname.crt | Zertifikat der Zertifizierungsstelle: ca.crt | Privater Schlüssel: clientname.key)

Unbedingt LZO Komprimierung aktivieren!

Unbedingt LZO Komprimierung aktivieren!

Jetzt ist noch wichtig, dass ihr unter “Erweitert” “LZO-Komprimierung verwenden” aktiviert, denn unser OpenVPN Server komprimiert die Daten. Wird dieser Haken nicht gesetzt, kommen wir nicht ins Internet. Das war mit ein Grund, warum OpenVPN bei mir lange Zeit nicht funktionieren wollte.

Danach alles bestätigen und schließen und:

Im Verbindung-Menü kann jetzt unter “VPN-Verbindungen” die gerade erstellte Verbindung aktiviert werden. Es dauert ein paar Sekunden, bis die verschlüsselte Verbindung aufgebaut ist. Danach könnt ihr z.B. unter wieistmeineip.de kontrollieren, ob ihr jetzt mit der IP eures Servers unterwegs seid. Das sollte jetzt der Fall sein ;) Wer die VPN Verbindung automatisch starten will, kann das in den Einstellungen seiner aktuellen WLAN- oder Kabelverbindung im Reiter “Allgemein” aktivieren.

Wenn ihr jetzt im Terminal eines Clients

ip addr show

eingebt, müsste eine neue Schnittstelle “tun0″ zu sehen sein und die IP (10.8.0.x) eures Clients.

Textdatei-basierte Konfiguration über client.conf

In den Kommentaren wurde ich nach einen Textdatei-basierten Beispielkonfiguration gefragt, hier seht ihr eine ;)

client

remote meinserver.net

ca /home/user/openvpn/ca.crt
cert /home/user/openvpn/client.crt
key /home/user/openvpn/client.key

comp-lzo yes

dev tun
proto udp

nobind
auth-nocache
script-security 2

persist-key
persist-tun

user openvpn
group openvpn

Diese Konfiguration passt ihr an euren Rechner an (Pfade zu Zertifikaten und Servername) und schreibt sie in /etc/openvpn/client.conf

Danach könnt ihr den OpenVPN Client starten:

sudo service openvpn start

Das war’s auch schon! Glückwunsch zu deinem OpenVPN Server! :)

Für Android kann ich übrigens die App “OpenVPN für Android” empfehlen: https://play.google.com/store/apps/details?id=de.blinkt.openvpn