ubuntuusers.de

27. Juni 2013

In vier Monaten erscheint Ubuntu 13.10 mit dem Namen Saucy Salamander. Nachdem Canonical mit Ubuntu Phone stark am arbeiten ist, dachte ich, dass sie die Desktop-Version ein bisschen vernachlässigen. Aber weit gefehlt. Die Einführung ihres neuen Display-Servers MIR, die für Ubuntu 14.04 LTS geplant war, wird nun auf die nächste Version vorgezogen.

Neues von MIR

MIR wird standardmäßig in Ubuntu 13.10 benutzt werden. Das neue Unity, Unity 7, wird aber anscheinend noch nicht Nativ unter MIR laufen, sondern mittels XMir, einer Kompabilitätsschicht für den X-Server unter Ubuntu funktionieren.
Dies funktioniert nur mit den offenen Treibern (Intel, Nouveau und Radeon). Wer einen proprietären Treiber für eine AMD/Nvidia Grafikkarte verwenden will, für den gibt es einen Fallback-Modus mit dem Standard-X-Server, der schon immer unter Ubuntu eingesetzt wurde.
Proprietäre Treiber sollen erst unter Ubuntu 14.04 laufen (was ich persöhnlich für etwas zu optimistisch halte)
via OMGUbuntu und webupd8

Radeon Treiber jetzt mit Stromsparfunktionen

Ich habe einen PC mit Dual-Graphics, also einer leistungsfähigen Grafikkarte von AMD und einer stromsparenden Onboard-Grafik von Intel. Diese Kombination unter Ubuntu zum laufen zu kriegen war gar nicht so einfach und funktioniert nur unter Ubuntu 12.04.
Der freie Radeon-Treiber unterstützt zur Zeit noch keine Stromsparfunktionen, so dass der Akku sehr schnell leer wird und der Lüfter die ganze Zeit am laufen ist.
Daher machte mir diese Meldung heute viel Hoffnung, dass ich bald auf meinem Laptop upgraden kann und auch auf den Catalyst-Treiber verzichten kann.
Ab Kernel 3.11, der im September erscheint, soll es soweit sein.

Fazit

Wenn der Radeon-Treiber ab September dann ähnlich gut funktioniert wie der Catalyst-Treiber und auch MIR Fortschritte macht, dann freue ich mich schon sehr auf Ubuntu 13.10 und Ubuntu 14.04 LTS.
Auch das Mobilsystem, Ubuntu Touch, macht Fortschritte, wie man hier und hier sehen kann, so dass man vielleicht schon ab nächsten Jahr Ubuntu auf allen Geräten haben kann.

Seit einer Woche rennt (!) Arch Linux nun wieder auf meinem Haupt-PC und ich bin wirklich begeistert. Zwar habe ich Arch Linux auch zuvor schon ein paarmal angetestet, aber mich scheinbar nie komplett darauf eingelassen. In der Woche, die natürlich keine extrem lange Zeitspanne darstellt, gab es nicht das winzigste Problem: keine Abstürze, keine Abhängigkeitsprobleme (offizielle Paketquellen) beim Installieren von Software, keine durch grafische Tools ausgelöste seltsame Konfigurationen.

Eine vollständige Systemaktualisierung unter Arch

Eine vollständige Systemaktualisierung unter Arch

Der einzige Wermutstropfen gegenüber Ubuntu ist und bleibt die etwas geringere Auswahl an vorkompilierter Software. Für Ubuntu gibt es für wirklich jedes Programm ein PPA, dass die Installation erleichtert (im Gegenzug aber möglicherweise so einiges zerschießt). Bei Arch finden sich zwar viele Programme im AUR, diese müssen aber noch kompiliert werden, was je nach Hardware einige Zeit benötigen kann. Außerdem sind einige Pakete im AUR nicht ganz ordentlich gepflegt, so dass durchaus mal Abhängigkeitsprobleme beim Kompilieren auftreten können. Das ist aber keinesfalls die Regel.

Gespannt bin ich auf die erste größere Update-Aktion, die trotz Rolling-Release immer mal wieder bei Arch Linux auftaucht. So hatte ich bei einem vorherigen Versuch ein paar kleinere Probleme auf systemd umzusteigen und kurz bevor ich nun den erneuten Versuch gewagt habe, wurden Programme nach /usr/bin umgezogen, was auch ein wenig Handarbeit erforderte. Trotzdem sollten sich diese Updates deutlich einfacher und schneller erledigen lassen, als ein Upgrade von der alten auf die neue Ubuntu-Version.

Wie es weitergeht, erfahrt ihr natürlich hier in meinem Blog. Um das nicht zu verpassen, kannst du meinem Blog sehr gerne bei Twitter folgen oder den RSS-Feed abonieren :-)

Ab Version 23 unterstützt Firefox Version 1.0 der W3C-Spezifikation von Content Security Policy (CSP). Das ursprünglich von Mozilla entwickelte Sicherheitskonzept soll vor allem Schutz vor Cross-Site-Scripting-Attacken (XSS) bieten.

CSP wurde ursprünglich von Mozilla entwickelt und wird von Firefox seit Version 4.0 unterstützt. Andere Hersteller wie Google hatten das Konzept aufgegriffen und mittlerweile gibt es eine Spezifikation des W3C, welche seit November 2012 den Status der Candidate Recommendation besitzt, sich aber in einigen Punkten von der Mozilla-Implementierung unterscheidet. Mit Firefox 23 gleicht Mozilla seine Implementierung weitestgehend an den (Beinahe-) Standard an. Die kleineren Unterschiede sowie die Unterschiede zur alten Implementierung in Firefox erläutert Mozilla in einem Blog-Eintrag.

Wikipedia beschreibt die Probleme des klassischen Sicherheitskonzeptes folgendermaßen:

Webseiten können aktive Inhalte beispielsweise in Form von JavaScript-Code enthalten. Wenn die Webbrowser diesen Code ausführen, erzwingen sie die Einhaltung der Same-Origin-Policy. Dies bedeutet, dass Code von einer Quelle nicht auf Inhalte einer anderen Quelle zugreifen darf. So darf beispielsweise der Code in der Webseite eines Angreifers nicht auf die Elemente einer Onlinebanking-Webseite zugreifen.

In der Praxis sind jedoch Cross-Site-Scripting-Schwachstellen sehr verbreitet, wodurch die Same-Origin-Policy ausgehebelt wird. Eine Cross-Site-Scripting-Schwachstelle entsteht, wenn sich eine Webseite durch fehlerhafte Maskierung Code unterschieben lässt. Aus Sicht des Browsers kommt dieser untergeschobene Code aus der gleichen Quelle wie die angegriffene Webseite.

CSP verbietet standardmäßig den Einsatz von Inline-Skripten, Skripte müssen dabei in eigene Dateien ausgelagert werden. Über eine Whitelist wird dann definiert, von welchen Quellen der Browser die Skripte ausführen darf. Aber nicht nur für Skripte, sondern auch für CSS-Dateien, Schriftarten, Bilder und anderes gibt es Whitelists. Des Weiteren kann festgelegt werden, mit welchen Servern mittels WebSockets oder AJAX kommuniziert werden darf. Eine praktische Funktion von CSP ist außerdem, dass CSP-Verletzungen auf dem Server protokolliert werden können.

Während CSP 1.0 bereits auf fortgeschrittenem Weg zum Standard ist, befindet sich auch schon Version 1.1 der Spezifikation in Arbeit, an welcher auch Mozilla wieder mitwirkt. Chrome unterstützt CSP 1.0 seit Version 25, der Internet Explorer 10 unterstützt lediglich die in CSP 1.0 optionale Sandbox-Direktive, welche wiederum Firefox nicht unterstützt. Webentwickler können sich eine Einführung in CSP auf HTML5 Rocks durchlesen.

Seit einer Woche rennt (!) Arch Linux nun wieder auf meinem Haupt-PC und ich bin wirklich begeistert. Zwar habe ich Arch Linux auch zuvor schon ein paarmal angetestet, aber mich scheinbar nie komplett darauf eingelassen. In der Woche, die natürlich keine extrem lange Zeitspanne darstellt, gab es nicht das winzigste Problem: keine Abstürze, keine Abhängigkeitsprobleme (offizielle Paketquellen) beim Installieren von Software, keine durch grafische Tools ausgelöste seltsame Konfigurationen.

Eine vollständige Systemaktualisierung unter Arch

Eine vollständige Systemaktualisierung unter Arch

Der einzige Wermutstropfen gegenüber Ubuntu ist und bleibt die etwas geringere Auswahl an vorkompilierter Software. Für Ubuntu gibt es für wirklich jedes Programm ein PPA, dass die Installation erleichtert (im Gegenzug aber möglicherweise so einiges zerschießt). Bei Arch finden sich zwar viele Programme im AUR, diese müssen aber noch kompiliert werden, was je nach Hardware einige Zeit benötigen kann. Außerdem sind einige Pakete im AUR nicht ganz ordentlich gepflegt, so dass durchaus mal Abhängigkeitsprobleme beim Kompilieren auftreten können. Das ist aber keinesfalls die Regel.

Gespannt bin ich auf die erste größere Update-Aktion, die trotz Rolling-Release immer mal wieder bei Arch Linux auftaucht. So hatte ich bei einem vorherigen Versuch ein paar kleinere Probleme auf systemd umzusteigen und kurz bevor ich nun den erneuten Versuch gewagt habe, wurden Programme nach /usr/bin umgezogen, was auch ein wenig Handarbeit erforderte. Trotzdem sollten sich diese Updates deutlich einfacher und schneller erledigen lassen, als ein Upgrade von der alten auf die neue Ubuntu-Version.

Wie es weitergeht, erfahrt ihr natürlich hier in meinem Blog. Um das nicht zu verpassen, kannst du meinem Blog sehr gerne bei Twitter folgen oder den RSS-Feed abonieren :-)

26. Juni 2013

Ich möchte mit dem Programm specto untersuchen, ob sich auf einer Webseite der Inhalt ändert. Leider ist specto in den Ubuntu-Repositories derzeit defekt, so dass man folgende Fehlermeldung erhält: "the network connection seems to be down" Dieses Problem lässt sich manuell beheben, indem man in der Datei /usr/share/pyshared/spectlib/watch.py einige Zeilen auskommentiert: sudo nano /usr/share/pyshared/spectlib/watch.py Jetzt sucht man folgende Stelle: def check_connection(self): if not self.specto.connection_manager.connected(): self.specto.logger.log(_("No network connection detected"), "

Ich möchte mit dem Programm specto untersuchen, ob sich auf einer Webseite der Inhalt ändert.
Leider ist specto in den Ubuntu-Repositories derzeit defekt, so dass man folgende Fehlermeldung erhält:
"the network connection seems to be down"

Dieses Problem lässt sich manuell beheben, indem man in der Datei /usr/share/pyshared/spectlib/watch.py einige Zeilen auskommentiert:

sudo nano /usr/share/pyshared/spectlib/watch.py

Jetzt sucht man folgende Stelle:

def check_connection(self):
if not self.specto.connection_manager.connected():
self.specto.logger.log(_(“No network connection detected”), “warning”, self.name)
self.specto.connection_manager.add_callback(self.start_checking)
self.specto.mark_watch_status(“no-network”, self.id)
return False
else:
self.specto.mark_watch_status(“idle”, self.id)
return True

…und ändert sie um in:

def check_connection(self):
# if not self.specto.connection_manager.connected():
# self.specto.logger.log(_(“No network connection detected”), “warning”, self.name)
# self.specto.connection_manager.add_callback(self.start_checking)
# self.specto.mark_watch_status(“no-network”, self.id)
# return False
# else:
self.specto.mark_watch_status(“idle”, self.id)
return True

Jetzt findet specto bei mir das Netzwerk, und die Überwachung läuft.. ;)

Weblinks

via

share this

Minetest ist ein Open World Game ohne endlichem Spielziel. In der offenen Welt, die dynamisch generiert wird, muss man Mineralien und andere Rohstoffe abbauen. Aus den Rohstoffen kann man sich Werkzeuge, Waffen und andere Gegenstände herstellen (engl.: craften).

Minetest, das initial ein Minecraft-Klon war, ist in der Programmiersprache C++ verfasst und basiert auf der Irrlicht-Engine auf der auch SuperTuxKart basiert.

Das Spiel das sich wie Minecraft als digitales Lego beschreiben lässt, kann durch Mods (kurz für Modifikationen) einfach erweitert werden. Diese sind durch die einfache API und die Unterstützung der Scriptsprache Lua einfach zu entwickeln.

Computer auf dem Minetest läuft Arbeitsecke mit großer Buchauswahl und Computer mit Crafting Guide Ein bescheidenes Heim auf einem Berg mit großer Treppe Typische Höhle mit Minenbahn

Das Spiel bietet zwei Spielmodi. Im kreative „Creative“-Modus hat man unendlich Ressourcen und kann Rohstoffe sehr schnell abbauen. Im „Survival“-Modus, der normale Spielmodus, muss man überleben. Mit Waffen und Häuser kann man sich gegen die Monster verteidigen die in der Nacht erscheinen. Um sich die Waffen oder Festungen bauen zu können braucht es natürlich Rohstoffe.

Das Spiel ist noch nicht „Feature Complete“, zeitweise wurden die Monster zwischen den Versionen verbessert und zeitweise entfernt, wenn sie nicht den Ansprüchen genügten. Durch Mods kann man aber in jeder Version in den süßen Genuss einer gefährlichen Monsterbedrohung kommen.

Generell kommt erst richtig Spaß auf, wenn man das Spiel mit ein paar Mods erweitert hat. Die Mods bezieht man momentan noch aus dem Forum, ein Paketmanager für Mods ist aber angedacht.

Das Spiel ist Freie Software und unter der LGPLv2.1+ veröffentlicht. Es kann für Linux, Mac OS X und Microsoft Windows heruntergeladen werden. Für die meisten Linux-Distributionen stehen Pakete im jeweiligen Repository bereit die jedoch veraltet. Etwa in allen aktuellen Ubuntu-Version. Über die PPA der Entwickler kann man die neuste Version beziehen. Bei Debian Testing sowie Unstable und aktuelleren Distributionen wie etwa Arch Linux besteht das Problem nicht. Auf der Downloadseite sind immer die richtigen Quellen für die jeweiligen Distributionen verlinkt.

Hier im Blog wird demnächst eine Liste mit empfehlenswerten Mods veröffentlicht.

Es kamen in letzter Zeit immer öfter Gerüchte auf, dass bestimmte Werbeinhalte von Adblock-Plus angezeigt werden, welche aufgrund von Bezahlung als “Unbedenklich” gekennzeichnet werden. Es steht nun immer öfter im Raum, dass auch unbeliebte Inhalte als “Werbung” gekennzeichnet werden, um ein Ankratzen des Images der Software zu verhindern.
Dazu hatte z.B Sascha Pallenberk auf Mobilegeeks.de einen Ausführlichen Artikel geschrieben.
Das Traurige an AdBlockPlus ist ja, dass es kaum Populäre Alternativen gibt, die wirklich etwas taugen.
So habe ich mir von someonewhocares.org die /etc/hosts Datei geholt und verschiebe diese mit…

$ sudo cp ~/Downloads/hosts /etc/hosts

von meinem Download Ordner in das richtige Verzeichnis(/etc).

Der Vorteil einer solcher Datei liegt schon laut der eigenen Definition auf der Hand:

Manchmal wird die Hosts-Datei dazu verwendet, bekannte Werbeserver zu blockieren, indem sie als Alias für 127.0.0.1 eingetragen werden. Die Besonderheit dieser Methode gegenüber den zu installierenden Werbefiltern ist, dass diese Sperrung systemweit Gültigkeit hat, also nicht nur auf einen Browser beschränkt ist. Darüber hinaus kann man solche Filter auch gegen manche Schadprogramme einsetzen, wenn diese Anweisungen von bereits bekannten Servern abzurufen versuchen.

Die exzessive Verwendung dieser Datei kann jedoch den gesamten Prozess der Namensauflösung verlangsamen, da diese Datei nicht für große Datenmengen optimiert ist. Vorgefertigte Dateien für die Verwendung als Werbefilter oder DNS-Ersatz sind im Internet erhältlich.

(http://de.academic.ru/dic.nsf/dewiki/824)

Mein persönliches Problem an dieser Vorfertigung ist, dass ich mir diese ständig neu holen muss(mit der Hand :O) und dass es keine größere IP/Adressen-DB gibt. Was macht man da also? Genau. Man zieht sich die Datei(sind insgesamt 330KB momentan) jeden Tag mittels Eintrag in der Crontab neu nach /etc/:
(/etc/crontab)

1 0     * * *   root  cd /etc && wget -c http://someonewhocares.org/hosts/hosts

Hierbei sei dennoch zu beachten, dass sich das nicht für Rechner eignet welche nicht dauerhaft am Internet hängen. Ansonsten wird man erstmal ein paar Sekunden warten müssen, da wget erstmal mehrere Versuche zum Verbinden unternehmen wird.

Zum Artikel von Mobilegeeks.de:
Ich mag seine Argumentation, welche mir durchaus schlüssig erscheint. Es ist wirklich ziemlich komisch, dass der Typ Geld aus einem Kostenlosen Addon gewinnen kann, UND auch noch 15 Mitarbeiter(Stellenanzeigen für neue schon geschaltet) einstellen kann. Also, wo kommt es her?
Es soll angeblich von einem Mysteriösen Partner kommen, welcher nicht genannt wird. Nirgendwo. Niemals.
Der zweite Partner, Till Faida, spricht von irgendwelchen Mysteriösen Strategischen Partnern und nimmt sich natürlich raus, diese nicht nennen zu können. Es sei einfach nicht in dem Interesse der eigenen Firma…” Klar doch. Deshalb gibt er zu, dass sich diese auf die Whitelist gekauft haben, bei einer Schweizer Zeitung.
Der Autor des Artikels verweist außerdem darauf, dass sich dieser Faida selbst-beweihräuchert: Erst mit irgendwelchen Communitys, welche auf seine Privatadresse registriert sind, dann mit einer “Unabhängigen-“Community, welche auch auf ihn registriert ist(“leider gehoert chrome-plugins.org auch Herrn Faida.” von Mobilegeeks.de)

Aber dazu wirds interessant: Da ist noch einer, ein Christian Dommer. Der war bei Sedo, diesen Protzigen Web-Werbe-Spammern, welche eigentlich nur mist verbreiten. Das Interessante: ” Zu ihr gehoeren neben Sedo die Marken GMX, web.de, 1und1, united Domains und affilinet. affilinet ist nach eigener Angabe Deutschlands fuehrendes Affiliate Netzwerk im Affiliate Marketing.”(Quote). Da Frag ich mich, warum “GMX” als sicherer wie web.de verkauft wird – scheint der gleiche Scheiß zu sein.
Alles in allem, ein Lesenswerter Artikel.
Und da ich den nun schon 2-Mal Verlinkt habe, möchte ich noch ein Drittes mal darauf hinweisen
Nachtrag 28.6.2013: Nachdem ich nun Mehrfach die Empfehlung bekommen habe, mir Adblock Edge anzusehen, bin ich davon überzeugt meinen Fork zu AdblockPlus gefunden zu haben. Keine komischen JS-Scripts, keine Mysteriösen grünen Links. Vollkommen Zufrieden :)

25. Juni 2013

In der technischen Mechanik lernt man als Student das Berechnen von Lager- und Stangenkräften in Fachwerken. Die Vorgehensweise ist dabei stets die gleiche und es läuft letztendlich auf das Lösen von linearen Gleichungssystemen (LGS) hinaus.

Der Gauß'sche Algorithmus beschleunigt das Berechnen zwar gegenüber dem Einsetzungsverfahren, jedoch geht das ganze doch noch erheblich schneller, wenn man den Computer das LGS lösen lässt.

Astoria-Megler bridge

Auch das Fachwerk der Astoria-Megler Bridge wurde von Ingenieuren berechnet

Hierzu kann man z.B. das weit verbreitete (kommerzielle) Programm Matlab verwenden, oder das Open-Source-Äquivalent GNU Octave. Beide Programme sind weitestgehend gleich in der Eingabe, weswegen diese Anleitung für beides verwendet werden kann.

Die Aufgabe

Gegeben ist ein Fachwerk mit 9 Stäben, einem Festlager und einem Loslager. Es greifen zwei Kräfte in negative y-Richtung an das Fachwerk an. Alle vertikalen und horizontalen Stangen haben die Länge von 1 m.

Zu berechnen sind die Lagerreaktionen sowie die Kräfte in den einzelnen Stäben.

fachwerk_bejonet

Aufstellen der Gleichungssysteme

Zunächst werden die Lagerreaktionen mit dem Kräfte- und Momentengleichgewicht bestimmt.

Die Eingabe in Octave sieht hierbei folgendermaßen aus:

octave:1> C=[1 1; 0 3];
octave:2> d=[13;22];
octave:3> E=C\d
E =
5.6667
7.3333

lagerreaktionWeitaus interessanter wird die Bestimmung der Stangenkräfte. Hier wird jeder Knoten freigeschnitten und damit für jeden Knoten einzeln das Kräftegleichgewicht aufgestellt. Darüber erhalten wir ein 12x9 Gleichungssystem, das wir über Octave lösen wollen.

Ich nutze hier gleich die Matrixschreibweise A·x=b, um die Übersichtlichkeit zu bewahren.

lgsWer etwas ungeübt ist, was diese Schreibweise betrifft: Jede Zeile steht für eine Gleichung. Dabei sind die einzelnen Spalten jeweils der Vorfaktor für f1..f9, in der Reihenfolge, wie sie in der zweiten Matrix stehen. Die oberste Zeile ist das Kräftegleichgewicht in Knoten 1 in x-Richtung. Die zweite Zeile ist Knoten 1 in y-Richtung usw..

Jetzt muss man dieses Gleichungssystem eigentlich nur noch lösen.

Eingabe in die Software

Dieses noch recht übersichtliche Gleichungssystem muss man nun in Matlab bzw. Octave eintippen. Matlab hat hierfür ein recht ansehnliches Tool (das erinnert ein bisschen an ein Tabellenkalkulationsprogramm), in Octave ist man noch gezwungen, das händisch einzutippen. Die Syntax sieht dann folgendermaßen aus:

octave:4> t=sin(pi/4);
octave:5> A=[
> t 1 0 0 0 0 0 0 0;
> t 0 0 0 0 0 0 0 0;
> -t 0 0 1 0 0 0 0 0;
> -t 0 -1 0 0 0 0 0 0;
> 0 -1 0 0 t 1 0 0 0;
> 0 0 1 0 t 0 0 0 0;
> 0 0 0 -1 -t 0 0 t 0;
> 0 0 0 0 -t 0 -1 -t 0;
> 0 0 0 0 0 -1 0 0 1;
> 0 0 0 0 0 0 1 0 0;
> 0 0 0 0 0 0 0 -t -1;
> 0 0 0 0 0 0 0 t 0];
octave:6> b=[0;5.667;0;0;0;-4;0;0;0;-9;0;7.333];
octave:7> F=A\b
F =
F =
    8.0139
   -5.6667
   -5.6667
    5.6667
    2.3570
   -7.3333
   -9.0000
   10.3709
   -7.3333

Das Ergebnis wird gleich ausgegeben. So einfach lassen sich also die Stabkräfte eines Fachwerks mit Open-Source Software berechnen.

[Bildquelle: David J Laporte, CC-by]

Seit ca. 6 Monaten sind bei mir zwei Raspberry Pi Systeme als HTPC im Einsatz. Als Distribution wird die aktuelle Version 3.06 von openELEC genutzt, die als Front-End XBMC nutzt.

Vor einigen Monaten hatte ich hier im Blog ja bereits viele Informationen zu der Pi Allgemein und zu meinem Setup preisgegeben. Heute hab ich mir gedacht es wäre mal an der Zeit ein Fazit zu ziehen, wie sich die Raspberry Pi als Media Center im Alltagsbetrieb macht.

Raspberry Pi - Allgemein (Teil 1)
Raspberry Pi - Media Center/XBMC (Teil 2)
Raspberry Pi - Media Center/XBMC (Teil 3)

Die Pi bietet für 35-40€ ein absolut fantastisches Preis-Leistungs Verhältnis. Selbst bei Media Playern im Bereich von über 100€ ist es selten ein so anpassbares Gerät zu finden. Dank XBMC gibt es eine große Auswahl verschiedener Skins, bei denen jeder Nutzer seinen Favorit wählen kann.
Durch das integrierte Add-On System kann man enorm viele Erweiterungen runterladen und installieren. Es gibt kaum eine Videoplattform (YouTube, Vimeo) die man hier nicht findet.

Meiner Meinung nach ist XBMC die mit Abstand beste Software Lösung für ein Media Center.



Die Videowiedergabe funktioniert bei bestimmten Voraussetzungen wunderbar. Besonders streng sind diese Voraussetzungen allerdings nicht. Videos sollten im MKV, MP4 oder AVI Container vorliegen. Als Codec darf h264, divx, xvid und mit gekauftem Plugin auch MPEG2 und VC-1 genutzt werden. Audio kann eigentlich in jedem beliebigem Format vorliegen. Hatte die Pi anfangs noch Probleme mit DTS, so ist dies bei den neueren Distributionen durch viel Software-Optimierung größtenteils behoben.
Einzig sollte die Bitrate bei h264 20Mbit nicht überschreiten, da es sonst zu Ruckeln kommt.

Wie ich bereits oft angemerkt habe, ist es empfehlenswert zum Streaming NFS als Freigabe zu verwenden. SMB, AFS und DLNA sind alle etwas langsamer und so kann es beim Abspielen zu Rucklern kommen. Falls kein NFS zur Verfügung steht, sollte man am ehesten noch SMB nutzen.

Auch Live-TV beherrscht die Pi. Das heißt ihr könnt über verschiedene Add-Ons eure TV-Quelle einbinden. In meinem Fall ist die Quelle ein VU+ Receiver (Solo 2). Funktioniert in SD mit dem MPEG2 Codec recht gut. Allerdings kann man HD-TV vergessen. Viel zu oft gibt es hier Abbrüche oder Asynchronen Ton. Auch die 720p Sender von ARD und ZDF laufen nicht zufriedenstellend.

Airplay über iPhone oder iPad funktioniert leider auch sehr bescheiden. Ich hab es eigentlich noch nie hinbekommen, dass ein Stream länger als 10 Minuten läuft. Oft stürzt auch das gesamte System ab und man muss es neustarten. Wer eine zuverlässigen AirPlay Player will, sollte sich dann doch eher eine AppleTV zu legen.
Die Pi kann übrigens keine DRM-Geschützten Inhalte abspielen und auch AirPlay-Mirroring ist nicht möglich.

Auch muss ich Allgemein etwas über die Stabilität meckern. Es passiert einfach zu oft, dass sich die Pi in irgendwelchen Menüs aufhängt. Helfen tut hier dann oft nur ein Restart der Pi. Leider ist es dazu nötig das Gerät vom Strom zu trennen und wieder anzuschließen. Manchmal kann man über SSH aber auch einen Reboot anstoßen.
Positiv zu erwähnen ist, dass beim Abspielen von Videos Abstürze so gut wie nie auftreten. (Ausnahme Airplay)

Hier dann noch einige weitere positive Sachen die mir aufgefallen sind:

  • Es gibt immer noch sehr oft Updates. Daran sieht man, dass Entwickler weiterhin am optimieren sind.
  • CEC. Es gibt einfach nichts praktischeres als mit der TV-Fernbedienung die Oberfläche bedienen zu können. Dieses Feature bieten die meisten Media Player NICHT an.
  • iPhone und Android App als Fernbedienung oder um direkt Videos zu starten. Die offizielle iPhone App ist wunderschön gestaltet. Für Android empfehle ich eher Yatse, da die offizielle App wenig veraltet ist und wenig Features bietet.
  • Offen. An der Pi sieht man wiedermal wie toll offene Plattformen doch sind.



Und einige negative:
  • openELEC hat keine Auto-Update Funktion. Für Power-User kein Problem aber warum ist das nicht direkt in das System eingebaut? Wie es bei anderen Distributionen aussieht kann ich leider nicht sagen.
  • Blinkende und Leuchtende LEDs auf der Pi. Ich hab die LEDs abgeklebt da sie im Filmbetrieb am Abend einfach extrem nervig waren.
  • 3D nur über SBS oder OU Verfahren.
  • Performance. Man merkt im Menü doch immer mal das die Pi an der Grenze arbeiten muss. Auch HDTV funktioniert nicht. Ich hoffe das wir in den nächsten Monaten mit einer überarbeiteten Pi rechnen können (Dual-Core? )

So das war es erstmal. :-)

Mozilla hat mit Thunderbird 17.0.7 sowie Thunderbird ESR 17.0.7 planmäßig Sicherheits- und Fehlerbehebungsupdates für den freien E-Mail-Client veröffentlicht.

Thunderbird 17.0.7 respektive sein ESR-Pendant schließen insgesamt acht Sicherheitslücken. Davon werden vier als kritisch und vier als hohes Sicherheitsrisiko eingestuft. Ein Update auf die neuste Version ist damit jedem Nutzer von Mozillas E-Mail-Client dringend empfohlen.

Abgesehen von den geschlossenen Sicherheitslücken hat Mozilla mit Version 17.0.7 kleinere Fehler, insbesondere mögliche Absturzursachen, behoben.

Thunderbird 17.0.7 kann hier heruntergeladen werden. Der nächste Major-Release von Thunderbird wird mit Thunderbird 24 im Oktober erscheinen. Bis dahin erhält Thunderbird nur noch Sicherheits-Aktualisierungen.

Mozilla hat mit Thunderbird 17.0.7 sowie Thunderbird ESR 17.0.7 planmäßig Sicherheits- und Fehlerbehebungsupdates für den freien E-Mail-Client veröffentlicht.

Thunderbird 17.0.7 respektive sein ESR-Pendant schließen insgesamt acht Sicherheitslücken. Davon werden vier als kritisch und vier als hohes Sicherheitsrisiko eingestuft. Ein Update auf die neuste Version ist damit jedem Nutzer von Mozillas E-Mail-Client dringend empfohlen.

Abgesehen von den geschlossenen Sicherheitslücken hat Mozilla mit Version 17.0.7 kleinere Fehler, insbesondere mögliche Absturzursachen, behoben.

Thunderbird 17.0.7 kann hier heruntergeladen werden. Der nächste Major-Release von Thunderbird wird mit Thunderbird 24 im Oktober erscheinen. Bis dahin erhält Thunderbird nur noch Sicherheits-Aktualisierungen.

Der Beitrag Mozilla veröffentlicht Thunderbird 17.0.7 erschien zuerst auf soeren-hentzschel.at.

Nachdem ich schon vor einer Weile auf Chrome umgestiegen bin, weil Adobe leider den Flash-Support für Linux weitesgehend eingestellt hat, wollte ich mir heute mal die Zeit nehmen und die drei Browser, die ich im Moment verwende in verschiedenen Benchmarks gegeneinander antreten lassen, um zu sehen, wie es um deren Performance bestellt ist.

Testumgebungen

Für die Benchmarks verwendete ich die beiden von mir im Moment hauptsächlich verwendeten Systeme.

Navis, mein Heim-PC, läuft mit einem Intel i5-2400 dem 8 GiB RAM zur Verfügung stehen.

Navicula, mein Laptop, läuft mit einem Intel i3-2310M dem ebenfalls 8 GiB RAM zur Verfügung standen und dessen Programme von einer mSATA geladen werden.

Auf beiden Systemen läuft ein aktualisiertes Ubuntu 12.04.

Weitere Infos zur Ausstattung der Systeme findet ihr auf meiner Benutzerseite bei ubuntuusers.de

Testkandidaten

Getestet wurden von mir die drei Browser, die ich am häufigsten verwende.

  • Google Chrome geht als mein momentaner Standard-Browser in Version 28.0.1500.52 an den Start.
  • Google Chromium, die OpenSource-Variante des Webkit-Browsers aus dem Hause Google wurde in Version 25.0.1364.160 von mir getestet.
  • Firefox in Version 21 komplettiert die Liste der Testkandidaten. Momentan nutze ich den eigentlich nur für das Surfen über das TOR-Netzwerk. Für den Test ließ ich ihn allerdings direkt auf das Netzwerk zugreifen.

Opera habe ich diesmal außen vor gelassen, weil die demnächst auch auf Webkit wechseln und die Performance dann nicht mehr mit dem, was ich heute messen würde, übereinstimmt. Sobald sich die Wogen dort geglättet haben, steht aber auch da ein Test an.

Verwendete Benchmarks

Für meine Tests verwendete ich insgesamt vier Testumgebungen. Zunächst mussten sich alle getesteten Browser dem ACID3-Test unterziehen.

Hier gibt es erfreuliches zu berichten. Während in der Vergangenheit bei Tests meinerseits immer wieder mal 97/100 oder 99/100 von einzelnen Browsern als Ergebnis ausgegeben wurden, glänzten diesmal alle Browser mit:

Acid3-Ergebnis: 100/100

Nach diesem sanften Einstieg mussten sich die Browser dann im Browsermark von Rightware behaupten. Hier zeigte sich für mich durchaus erstaunliches. Chromium schnitt doch tatsächlich am besten ab. Auf dem Laptop sogar noch deutlicher als auf dem Heim-PC. Das hatte ich nicht erwartet. Der Firefox landet leider immer noch abgeschlagen auf dem letzten Platz.

Acid3-Ergebnis: 100/100

In der dritten Testumgebung, dem Peacekeeper-Benchmark von Futuremark zeigte sich dann das Bild, dass ich eigentlich auch beim Browsermark erwartet hatte. Wenn auch nur mit einer Nasenspitze, so liegt doch Chrome vor Chromium und Firefox belegt erneut mit deutlichen Performance-Unterschied den dritten Platz.

Acid3-Ergebnis: 100/100

Zu letzt teste ich die drei Browser ließ ich die drei Browser dann noch im Speed-Battle von u-uu.de gegeneinader antreten. Das Ergebnis kam für mich nach den anderen beiden Tests vollkommen unerwartet. Firefox gewinnt! Und zwar mit Abstand.

Acid3-Ergebnis: 100/100

Eine Antwort darauf, warum hier der Firefox vorne liegt muss ich leider schuldig bleiben. Überrascht hat es mich allemal.

Fazit

Da auch die gefühlte Performance beim Verwenden von Firefox noch nicht an die der Browser aus dem Hause Google heran reicht, werde ich wohl weiterhin bei Chrome/Chromium bleiben. Auch wenn die Neuerungen der letzten Zeit und die sinnvolle Reduzierung der Menü-Leisten den Wechsel zu Firefox für mich zumindest denkbar erscheinen lassen.

Mozilla hat heute Firefox 22 mit zahlreichen Verbesserungen veröffentlicht. Dieser Artikel fasst die wichtigsten Neuerungen des Mozilla-Browsers zusammen.

WebRTC: Videotelefonie & Dateitransfers ohne Plugin möglich

WebRTC ist derzeit in aller Munde. Dabei handelt es sich um eine Webtechnologie, welche Echtzeitkommunikation zwischen verschiedenen Clients beispielsweise in Form von Videotelefonie oder File-Sharing erlauben soll – plattformübergreifend und vollkommen ohne Plugin. Diese Technologie wird in den nächsten Jahren ohne Frage eine ganz wichtige Rolle im Web spielen. Derzeit arbeiten die verschiedenen Browserhersteller intensiv daran, ihre Browser um WebRTC-Fähigkeiten zu erweitern. Mit Firefox 22 ist WebRTC erstmals in Firefox standardmäßig aktiviert.

H.264, MP3 & AAC-Unterstützung für Windows Vista

Ohne Plugin ist auch eine treffende Beschreibung für die Unterstützung der proprietären Codecs H.264, MP3 und AAC. Diese werden bereits von Firefox OS, Firefox Mobile für Android und seit Version 21 auch von Firefox für Windows 7 und Windows 8 unterstützt. Mit Firefox 22 folgt nun auch die Unterstützung für Windows Vista. Übrigens: Ab Firefox 23 erfolgt die Wiedergabe dieser Codecs Hardware-beschleunigt, Linux-Nutzer können diese Neuerung ab Firefox 24 testen.

Flexbox, @supports, Web Notifications & weitere Standards

Firefox 22 unterstützt noch einige weitere großartige neue Standards. So kommt unter anderem standardmäßig aktiviert die Unterstützung für W3C CSS Flexible Box Layout, oder kurz: Flexbox, dazu. Dieser Standard wird Webdesignern das Leben in Zukunft deutlich einfacher machen. Bei den .net-Awards 2013 wurde Flexbox zur besten neuen Web-Technologie gewählt (vor WebRTC und Mozillas Firefox OS). Eine verständliche Einführung bietet HTML5 Rocks.

Ebenfalls standardmäßig aktiviert wurde nun die Unterstützung für CSS @supports und der entsprechenden DOM-API, über welche der Browser gefragt werden kann, ob er eine bestimmte CSS-Deklaration versteht, und entsprechend darauf reagieren kann.

Ein weiterer interessanter Standard, welchen Firefox ab Version 22 unterstützt, ist die W3C Web Notifications API. Diese erlaubt es Webseiten, Desktop-Benachrichtigungen anzuzeigen – die entsprechende Erlaubnis durch den Benutzer vorausgesetzt. Eine mögliche Anwendung hierfür wären Webmailer, welche über neue E-Mails benachrichtigen könnten, auch wenn Firefox gerade nicht im Vordergrund ist. Aber nicht nur für Webseiten ist dies interessant, auch Firefox und Thunderbird nutzen intern bereits diese neue API für Benachrichtigungen. Ab Firefox 23 sehen diese optisch auch ein wenig schöner aus.

Neu in Firefox 22 ist auch die Unterstützung der beiden HTML5-Elemente <time> und <data>. Die ClipboardData-API erlaubt JavaScript-Anwendungen den Zugriff auf die Zwischenablage. Des Weiteren kann mittels Pointer Lock-API der Mauszeiger – wieder die Erlaubnis durch den Benutzer vorausgesetzt – auch im Nicht-Vollbild ausgeblendet werden.

In HTML5-Videos ist es nun außerdem möglich, die Abspielgeschwindigkeit per Kontextmenü durch den Benutzer oder per API durch die Webseite zu ändern.

SocialAPI-Dienste über Add-ons-Manager verwalten und weitere Verbesserungen

Auch Mozillas SocialAPI hat weitere Verbesserungen erhalten. So können SocialAPI-Erweiterungen ab sofort über den Add-on-Manager aktiviert und auch deinstalliert werden. Dazu wurde Firefox dahingehend vorbereitet, solche Erweiterungen künftig über addons.mozilla.org herunterladen zu können. Dazu stehen ab Firefox 22 mit MSN Now, CliqZ und für japanische Firefox-Nutzer Mixi weitere SocialAPI-Erweiterungen bereit.

Verbesserungen in Bezug auf Plugins

Auch in Bezug auf Plugins gibt es Verbesserungen, so werden Plugin-Einstellungen nicht länger in der Datei pluginreg.dat gespeichert, womit sich unter Umständen selbst wieder aktivierende Plugins oder das Zurücksetzen der Click-to-Play-Einstellung auf Seitenbasis bei Plugin-Updates der Vergangenheit angehören sollten. Bei Plugins, welche per Blockliste von Mozilla auf Click-to-Play gesetzt worden sind, führt ein Klick auf den entsprechenden Platzhalter aus Sicherheitsgründen nicht mehr direkt das Plugin aus, sondern öffnet das Panel in der Adressleiste, um eine explizite Bestätigung durch den Benutzer zu fordern. Außerdem zeigt die Seite about:plugins nun wieder den Installationspfad der installierten Plugins an, diese Funktion war in Firefox 21 defekt. Der Schalter plugin.expose_full_path muss hierfür nicht mehr auf true stehen, sondern kann auf false stehen bleiben. Mit Firefox 24 gibt es diesen Schalter nicht länger.

3D-Spiele im Browser: asm.js-Compiler OdinMonkey unterstützt hochperformante Anwendungen

asm.js ist für Code ausgelegt, welcher über Compiler wie Emscripten oder Mandreel in JavaScript übersetzt worden ist, und soll die Ausführung von JavaScript spürbar beschleunigen können. Es handelt sich dabei um ein Subset von JavaScript, womit ein asm.js geschriebener Code auch von JavaScript-Engines ausgeführt werden kann, welche asm.js nicht unterstützen. Dafür optimierte Engines sollen allerdings JavaScript deutlich schneller ausführen und entsprechender Code ungefähr halb so schnell wie in C oder C++ geschriebener Code sein, womit die JavaScript-Performance vergleichbar mit C# respektive Java sein soll. Mit OdinMonkey ist der entsprechende Compiler in Firefox 22 gelandet.

Weitere Performance-Verbesserungen

Verbessert wurde außerdem der Speicherbedarf von Grafiken und die Zeit, welche es braucht, diese zu rendern, unter anderem durch Multithreading beim Dekodieren der Bilder. Auch das Scrollen auf manchen modernen Touchpads soll sich nicht mehr so langsam anfühlen. Ebenfalls verbessert wurde die Startzeit, wo man bis zu 10% schneller im Vergleich zur Vorversion sein möchte, und die WebGL Rendering-Performance. Die Skia-Grafikbibliothek wird durch OpenGL jetzt außerdem hardwarebeschleunigt.

Entwickler-Werkzeuge mit zweitem Theme, Schriftarten-Ansicht & neuem Performance-Tool

Die Entwickler-Werkzeuge von Firefox haben mit Version 22 wieder einmal zahlreiche Verbesserungen erhalten. So ist es ab sofort möglich, über about:config anstelle des hellen Themes ein dunkles Theme für den Inspektor einzustellen. Dazu muss der Schalter devtools.theme von light auf dark umgestellt werden. Ab Firefox 23 wird dies einfacher gehen – dann gibt es in den Entwickler-Werkzeugen ein Einstellungs-Panel, über welches sich diverse Einstellungen vornehmen lassen, darunter auch die Wahl des Themes. Die Entwickler-Werkzeuge waren bislang immer am unteren Fensterrand angedockt oder konnten als eigenständiges Fenster losgelöst werden. Als dritte Möglichkeit können die Entwickler-Werkzeuge jetzt am rechten Fensterrand angedockt werden. Beim Loslösen der Werkzeuge als eigenständiges Fenster wird in dessen Titelleiste außerdem die Domain des Tabs angezeigt, zu welchem diese Instanz der Werkzeuge gehört.

Die Web-Konsole öffnet beim Klicken auf den Dateinamen bei JavaScript-Fehlern nicht länger die Quelltext-Ansicht, sondern die entsprechende Stelle mit dem Debugger von Firefox und hat eine optisch leicht verbesserte Autovervollständigung erhalten. Optisch überarbeitet wurde auch der Debugger, welcher die verschiedenen Skripte einer Webseite nun auf der linken Seite untereinander anzeigt.

Eine weitere optische Verbesserung betrifft die Funktion Bildschirmgrößen testen. Die Scrollleisten werden in diesem Modus jetzt wie auf einem mobilen Gerät angezeigt. Außerdem gibt es hier nun einen Button zum Schließen dieser Ansicht.

Der Inspektor zum Untersuchen von Elementen einer Webseite hat ein neues Panel in der Sidebar erhalten, um die verwendeten Schriftarten zu untersuchen. Hier findet sich neben dem Namen der Schriftart und dem im CSS verwendeten Namen auch eine Information darüber, ob es sich um eine auf dem System installierte Schrift handelt oder gegebenenfalls die URL zur Schriftart, und außerdem der @font-face CSS-Code. Des Weiteren gibt es hier eine Vorschau in dieser Schrift, welche sich in einen beliebigen Text ändern lässt. Das Suchfeld des Inspektors hat außerdem eine Autovervollständigung für Elemente erhalten.

Verbesserungen gab es auch beim Stilbearbeitungs-Panel, welches jetzt auch Stylesheets anzeigt, welche per @import eingebunden werden. Außerdem warnt Firefox ab sofort beim Verlassen einer Seite, wenn CSS-Änderungen vorgenommen wurden, damit man diese im Falle eines versehentlichen Verlassens der Seite noch sichern kann.

Ein neues Feature hört auf den Namen Paint Flashing. Dieses markiert Bereiche einer Webseite jedes Mal farbig, wenn die Rendering-Engine von Firefox diese neu zeichnet. Dieses Feature kann bei der Performance-Optimierung von Webseiten helfen, da ein unnötiges Neuzeichnen von Bereichen vermieden werden sollte. Dieses Werkzeug kann auch über die Entwickler-Toolbar (Shift + F2) gesteuert werden. Hier gibt es außerdem nun ein Kommando für den JavaScript-Profiler und pref show <prefname> zeigt neben dem Wert des about:config-Schalters ab sofort auch nochmal den Namen des Schalters in der Ausgabe an.




Video auf YouTube ansehen

Sonstige Neuerungen

Plaintext-Dateien hatten bislang bei der Betrachtung in Firefox das Problem, dass die Zeilen nicht umgebrochen wurden, ab Firefox 22 werden die Zeilen umgebrochen. Über about:config kann das alte Verhalten wieder eingestellt werden, indem der Schalter plain_text.wrap_long_lines per Doppelklick auf false geschaltet wird. Seit Firefox 18 kann Firefox Bilder in einer deutlich besseren Qualität herunterskalieren. Der High-Quality-Skalierer wird nun auch zum Hochskalieren benutzt, solange die als image.high_quality_upscaling.max_size festgelegte Zahl nicht an Speicherbedarf überschritten wird.

Bei Benutzung des Vollbildmodus und dem anschließenden Auswählen eines anderen Monitors bei der Verwendung mehrerer Bildschirme wurde der Vollbildmodus bislang verlassen, nun beendet Firefox diesen nicht mehr automatisch. Außerdem ist die Unterstützung für die Font-Technologie Graphite2 standardmäßig aktiviert worden.

Unter Windows folgt Firefox auf HiDPI-Bildschirmen den Skalierungs-Einstellungen des Betriebssystems, was zu einer größeren Text-Darstellung auf diesen Bildschirmen führen kann. Geändert kann dies werden, indem über about:config der Wert von layout.css.devPixelsPerPx von -1.0 auf 1.0 geändert wird. Auf HiDPI-Systemen mit OS X werden in den Tabs nun hochauflösende Favicons verwendet, sofern vorhanden. Außerdem wird der Download-Fortschritt auf OS X nun im Firefox-Symbol im Dock angezeigt. Dazu kommen wie immer diverse Verbesserungen an Mozillas integriertem PDF-Betrachter, Plattform-Fixes und behobene Sicherheits-Lücken.

OpenVPN LogoEin eigener OpenVPN Server, über den der gesamte Internet-Traffic geleitet wird, hat viele Vorteile: Unsichere, freie WLANs werden für einen selbst abhörsicher, Geräte lassen sich – egal ob sie sich Zuhause im Festnetz oder im Mobilfunknetz befinden -  zu einem eigenen Subnetz inkl. eigener IPs zusammenfassen und das verbrauche Datenvolumen aller angemeldeter Geräte lässt sich zentral kontrollieren.

Meine beiden Ziele sind hauptsächlich die Verschlüsselung in unsicheren Umgebungen und die Möglichkeit, meinen gesamten Verbrauchten Traffic aller Geräte zentral am Server kontrollieren zu können (Z.B. mit vnstat). Es hieß, ein OpenVPN Server sei einfach einzurichten und unkompliziert. Hab mich dann also an die Arbeit gemacht und meinen eigenen VPN Server aufgesetzt. Dabei habe ich mich an diverse Anleitungen im Internet gehalten, aber mein Server wollte lange Zeit kaum funktionieren. Vor allem mit den Clients für Ubuntu hatte ich Probleme. Ich kam nicht ins Internet.

Also habe ich eine Menge recherchiert und Experten im ubuntuusers.de Forum befragt… und jetzt steht ich da mit einem gut funktionierendem OpenVPN Server. :) Ich will in diesem Artikel erklären, wie ich zu meinem OpenVPN Server gekommen bin. Vielleicht hilft er ja dem ein oder anderen, der auch gerade Probleme bei der Konfiguration hat.

OpenVPN Server installieren

Zuerst loggen wir uns ins Terminal ein und verschaffen uns Root-Rechte – Ohne die geht nix…

sudo -s

Die Installation von OpenVPN erledigen wir mit dieser Befehlskette:

apt-get update && apt-get install openvpn

Das OpenVPN Paket ermöglicht sowohl die Einrichtung eines Clients wie auch eines Servers. Was wir letztendlich erhalten, bestimmt die Konfigurationsdatei, die wir später anlegen.

Vorbereitung

Zuerst legen wir aber die Standardattribute für die Zertifikate fest, denn bei OpenVPN geschieht die Authentifizierung der Benutzer / Clients am Server mit Zertifikaten.

cd /etc/openvpn

Zum generieren der Zertifikate gibt es bereits fertige Scripts, die wir uns aus dem Beispielverzeichnis kopieren:

cp -R /usr/share/doc/openvpn/examples/easy-rsa/2.0 ./easy-rsa

Jetzt wechseln wir in den easy-rsa Ordner, wo wir zunächst die Standardattribute unserer Zertifikate anpassen:

cd easy-rsa
nano vars

Diese Stelle:

# This variable should point to
# the openssl.cnf file included
# with easy-rsa.
export KEY_CONFIG=$EASY_RSA/openssl-1.0.0.cnf

Muss zuerst angepasst werden (hier ist sie bereits korrigiert), sodass die OpenSSL Konfigurationsdatei unter dem oben stehenden Pfad gefunden werden kann. Diese Datei liegt in /etc/openvpn/openssl-1.0.0.cnf

Weil wir doch alle ein bisschen paranoid sind, wird diese Stelle auch noch so abgeändert. Das verschafft uns höhere Sicherheit:

# Increase this to 2048 if you
# are paranoid.  This will slow
# down TLS negotiation performance
# as well as the one-time DH parms
# generation process.
export KEY_SIZE=2048

Dieser Abschnitt:

# These are the default values for fields
# which will be placed in the certificate.
# Don't leave any of these fields blank.
export KEY_COUNTRY="DE"
export KEY_PROVINCE="BY"
export KEY_CITY="Landshut"
export KEY_ORG="meinserver.net"
export KEY_EMAIL="kjjasdhshdf@gmx.de"
export KEY_EMAIL=kjjasdhshdf@gmx.de
export KEY_CN="meinserver.net"
export KEY_NAME="Max Muster"
export KEY_OU=changeme
export PKCS11_MODULE_PATH=changeme
export PKCS11_PIN=1234

Muss an die eigenen Daten angepasst werden. (Land, Bundesland, Stadt, Organisation, zweimal E-Mail, Domain, unter welcher der Server erreichbar ist!, Name des Besitzers)

CA / Serverzertifikate generieren

Dann kann es ja jetzt los gehen mit dem Generieren der Certificate Authority und den Serverzertifikaten. Dazu wird der Editor beendet und unsere gerade geänderte vars-Datei “gesourced”:

source ./vars

Erst mal aufräumen:

./clean-all

Diffie-Hellman-Datei generieren:

./build-dh

Server-CA bauen:

./build-ca

Die Felder sollten bereits die passenden Standardwerte besitzen (Stehen in Klammern), sodass man die Eingabe mit [ENTER] überspringen kann.
Damit wäre die CA erstellt und die Serverzertifikate können erstellt werden:

./build-key-server meinserver.net

meinserver.net muss natürlich mit der eigenen Domain ersetzt werden, unter der der Server verfügbar ist.
Wieder können alle Felder mit [ENTER] übersprungen werden. Ein “Challenge Password” wird nicht gesetzt; zum Schluss muss noch zweimal mit “y” bestätigt werden. Das Serverzertifikat haben wir jetzt also auch. Alle generierten Zertifikate mit den zugehörigen Keys liegen jetzt in /etc/openvpn/easy-rsa/keys/

Den Server konfigurieren

Als nächstes wird die Serverkonfiguration vorgenommen:

nano /etc/openvpn/server.conf

Diese Konfiguration könnt ihr direkt übernehmen:

port 1194

proto udp

dev tun

ca easy-rsa/keys/ca.crt
cert easy-rsa/keys/meinserver.net.crt
key easy-rsa/keys/meinserver.net.key  # This file should be kept secret

dh easy-rsa/keys/dh2048.pem

server 10.8.0.0 255.255.255.0

push "redirect-gateway def1 bypass-dhcp"

push "dhcp-option DNS 208.67.222.222"
push "dhcp-option DNS 208.67.220.220"

push "topology subnet"
topology subnet

keepalive 10 120

comp-lzo

user openvpn
group openvpn

persist-key
persist-tun

verb 6

Nur die Namen der Zertifikatsdateien müsst ihr noch an die Dateinamen / bzw. die Domain eures Servers anpassen, dann ist die Konfiguration fertig. Den Server lassen wir als Benutzer und Gruppe “openvpn” laufen. Diese existieren aber noch nicht im System; das ändern wir jetzt:

sudo adduser --system --no-create-home --disabled-login openvpn
sudo addgroup --system --no-create-home --disabled-login openvpn

Iptables korrekt setzen

Damit die Clients Internetzugriff haben und sich nicht nur untereinander in ihrem Subnetz 10.8.0.0/24 verbinden können, müssen jetzt noch ein paar iptables Regeln erstellt werden. Dazu gebt ihr einfach folgende Befehlszeilen nacheinander in euer Terminal ein:

sysctl -w net.ipv4.ip_forward=1
iptables -A FORWARD -o eth0 -i tun0 -s 10.8.0.0/24 -m conntrack --ctstate NEW -j ACCEPT
iptables -A FORWARD -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE

Da diese Regeln beim nächsten Neustart des Servers nicht mehr gelten, lassen wir die Befehle automatisch bei jedem Serverstart ausführen. Öffnet die Datei /etc/rc.local (nano /etc/rc.local) und schreibt die oben stehenden Befehle vor das “exit 0″.

Diese Befehle werden bei jedem Start ausgeführt.

Diese Befehle werden bei jedem Start ausgeführt.

Mit der Serverkonfiguration sind wir jetzt fertig. Damit die Einstellungen angewendet werden, folgt jetzt noch ein abschließendes

service openvpn restart

Clientzertifikate erstellen

Jetzt sind die Clients dran.

Jeder Client benötigt 3 Dateien, um sich am Server anmelden zu können: Die Dateien ca.crt, clientname.crt und clientname.key. Der “clientname” kann variieren. “ca.crt” haben wir bereits erstellt, jetzt werden noch die Clientzertifikate generiert. Mit unserem Terminal sollten wir uns immer noch im Verzeichnis /etc/openvpn/easy-rsa/ befinden. Falls das nicht der Fall ist, wechselt in dieses Verzeichnis.

Ein neues Clientzertifikat wird mit folgendem Befehl erstellt:

./build-key thomas-nb

“thomas-nb” ist der Clientname, der beliebig wählbar ist. (Keine Sonderzeichen und Leerzeichen!). Die erstellten Zertifikatsdateien werden in diesem Fall thomas-nb.crt und thomas-nb.key heißen. Wählt also einen Namen, der möglichst aussagekräftig ist, sodass ihr die Zertifikate wiedererkennt und führt den Befehl damit aus.
Wieder werdet ihr nach den verschiedenen Attributen für das Zertifikat gefragt… und wieder könnt ihr die Felder überspringen, da die vars-Datei noch gesourced ist, in der bereits unsere Vorgaben stehen. An Schluss muss wieder zweimal mit “y” bestätigt werden. Sollten mal keine Vorgaben bereitstehen, muss die vars Datei wieder gesourced werden. Dazu einfach ein

source ./vars

eingeben, wie ihr es bereits zu Beginn dieser Anleitung getan habt. Die Vorgaben für die Zertifikatsfelder sind dann wieder verfügbar.
Als nächstes müsst ihr jeden eurer Clients mit seinen 3 Zertifikatsdateien versorgen, d.h. die Dateien müssen auf irgendeine Art und Weise auf die Clients übertragen werden. Welches Übertragungsmittel ihr benutzt, ist egal. Es bieten sich z.B. FTP und USB Sticks an. Alternativ könnt ihr natürlich auch jede der 3 Dateien öffnen und den Inhalt abschreiben ;)

Hier nochmal die Dateinamen, die jeder Client braucht:

  • ca.crt (CA Rootzertifikat)
  • clientname.crt (Clientzertifikat)
  • clientname.key (Schlüssel für das Clientzertifikat, geheim!)

Sobald wir diese Dateien vom Server auf den Client übertragen haben, können wir die Finger vom Server lassen und wenden und nun der Konfiguration der Clients zu.

OpenVPN Client konfigurieren

Installiert euch auch auf euren Clients openvpn:

sudo apt-get install openvpn

Grafische Konfiguration über Network-Manager Plugin

Im folgenden gehe ich davon aus, dass unter Ubuntu (Unity-Desktop) mit dem OpenVPN Plugin des Network-Managers eine Verbindung hergestellt werden soll. So ähnlich funktioniert die Einrichtung auch auf anderen Plattformen und Desktops.

Installieren wir zuerst das OpenVPN Plugin:

sudo apt-get update && sudo apt-get install network-manager-openvpn

Neben dem Plugin wird auch gleich der Rest des OpenVPN Servers / Clients mitinstalliert. Interessiert uns aber nicht weiter. Nach der Installation erstellen wir eine neue OpenVPN Verbindung. (Netzwerk-Symbol oben rechts => Verbindungen bearbeiten => Hinzufügen => OpenVPN => Erzeugen). Dann gebt ihr der Verbindung einen Namen, gebt die Serveradresse ein und sagt dem Programm, wo eure Zertifikatsdateien zu finden sind. (Zertifikat des Benutzers: clientname.crt | Zertifikat der Zertifizierungsstelle: ca.crt | Privater Schlüssel: clientname.key)

Unbedingt LZO Komprimierung aktivieren!

Unbedingt LZO Komprimierung aktivieren!

Jetzt ist noch wichtig, dass ihr unter “Erweitert” “LZO-Komprimierung verwenden” aktiviert, denn unser OpenVPN Server komprimiert die Daten. Wird dieser Haken nicht gesetzt, kommen wir nicht ins Internet. Das war mit ein Grund, warum OpenVPN bei mir lange Zeit nicht funktionieren wollte.

Danach alles bestätigen und schließen und:

Im Verbindung-Menü kann jetzt unter “VPN-Verbindungen” die gerade erstellte Verbindung aktiviert werden. Es dauert ein paar Sekunden, bis die verschlüsselte Verbindung aufgebaut ist. Danach könnt ihr z.B. unter wieistmeineip.de kontrollieren, ob ihr jetzt mit der IP eures Servers unterwegs seid. Das sollte jetzt der Fall sein ;) Wer die VPN Verbindung automatisch starten will, kann das in den Einstellungen seiner aktuellen WLAN- oder Kabelverbindung im Reiter “Allgemein” aktivieren.

Wenn ihr jetzt im Terminal eines Clients

ip addr show

eingebt, müsste eine neue Schnittstelle “tun0″ zu sehen sein und die IP (10.8.0.x) eures Clients.

Textdatei-basierte Konfiguration über client.conf

In den Kommentaren wurde ich nach einen Textdatei-basierten Beispielkonfiguration gefragt, hier seht ihr eine ;)

client

remote meinserver.net

ca /home/user/openvpn/ca.crt
cert /home/user/openvpn/client.crt
key /home/user/openvpn/client.key

comp-lzo yes

dev tun
proto udp

nobind
auth-nocache
script-security 2

persist-key
persist-tun

user openvpn
group openvpn

Diese Konfiguration passt ihr an euren Rechner an (Pfade zu Zertifikaten und Servername) und schreibt sie in /etc/openvpn/client.conf

Danach könnt ihr den OpenVPN Client starten:

sudo service openvpn start

Das war’s auch schon! Glückwunsch zu deinem OpenVPN Server! :)

Für Android kann ich übrigens die App “OpenVPN für Android” empfehlen: https://play.google.com/store/apps/details?id=de.blinkt.openvpn

Seit Februar läuft zum dritten Mal Mozillas internationaler Kurzvideo-Wettbewerb Firefox Flicks, welcher Firefox-Fans und Filmemacher dazu einlädt, einen kurzen Videospot zu erstellen. In diesem Jahr steht Firefox Flicks unter dem Motto “Mobilisieren Sie sich”. Die Gewinner der 2. Early Entry Awards-Runde stehen nun fest. Der Gewinner kommt aus Deutschland.

Mozillas Film-Wettbewerb geht mit großen Schritten dem Ende entgegen. Am 31. Juli 2013 ist bereits die finale Deadline zur Einreichung eigener Videos, um tolle Preise zu gewinnen. In diesem Jahr gibt es außerdem drei Chancen, durch eine frühe Teilnahme abzuräumen und dadurch 1.000 $ zu erhalten. Die erste Chance ist bereits vorbei und die Gewinner stehen auch schon fest. Und nun sind auch die Gewinner der 2. Runde bekannt. Teilnahme-Ende für die 3. Runde ist bereits der 03. Juli!

Die drei Gewinner der 2. Early Entry Awards-Runde in aufsteigender Reihenfolge:

Platz 3: From Dream To Reality (Großbritannien):

Auf firefoxflicks.mozilla.org ansehen

Platz 2: My phone, my thing, my everything (Frankreich):

Auf firefoxflicks.mozilla.org ansehen

Platz 1: Be Part of It – Get Mobilized (Deutschland):

Auf firefoxflicks.mozilla.org ansehen

24. Juni 2013

Bei OpenNews handelt es sich um ein Projekt von Mozilla und der Knight Foundation mit dem Ziel, dem Journalismus im offenen Web zum Erfolg zu verhelfen. Das Projekt befindet sich in seinem dritten Jahr, die Bewerbungsphase für Fellowships in 2014 ist nun offen.

Knight-Mozilla ist eine Kooperation von Mozilla und der Knight Foundation. Bei der Knight Foundation handelt es sich um eine Stiftung, die Projekte fördert, welche dem Journalismus zu mehr Qualität verhelfen und Medien-Innovationen voranbringen. Außerdem setzt sich die Stiftung weltweit für die Rechte von Journalisten ein. Knight-Mozilla sucht für OpenNews fünf Entwickler und Technologen, welche zehn Monate lang zusammen mit Reportern, Designern und anderen Entwicklern zusammenarbeiten wollen. Gemeinsam sollen Open Source-Lösungen geschaffen werden, welche Probleme bezüglich Nachrichten lösen. Die zehnmonatige Zusammenarbeit wird natürlich auch bezahlt, weitere Informationen dazu gibt es auf dieser Seite. Zu den News-Partnern 2014 gehören The New York Times, ProPublica in New York, The Texas Tribune in Austin, La Nacion in Buenos Aires und Ushadidi und Internews Kenya in Nairobi. Bewerbungen werden ab sofort entgegengenommen, Bewerbungsschluss ist der 17. August.




Video auf YouTube ansehen

Wenn Sie in Ubuntu 13.10 im Startmenü (also in der »Dash«) nach Terminal suchen und dann das entsprechende Icon anklicken, wird das Programm nicht gestartet. Stattdessen zeigt das Startmenü nun eine Beschreibung des Programmes gnome-terminal an. Und wenn Sie sicher sind, dass Sie das Programm wirklich starten möchten, können Sie es nun mit einem weiteren Mausklick auf den Button 'Starten' ausführen.

Der Hintergrund der Änderung ist es, dass Canonical die Dash anscheinend primär als Suchzentrale sieht. Mag sein, dass das manchen Benutzern entgegenkommt, ich finde das neue Verhalten allerdings absurd. Wenn ich ein Programm starten will, für das es kein Icon im Dock gibt, will ich es flott starten. Mich interessiert die Programmbeschreibung nicht, ich weiß, wozu gnome-terminal dient.

Abhilfe: Das neue Zwei-Klick-Verfahren lässt sich dankenswerterweise abstellen:

gsettings set com.canonical.Unity double-click-activate false

Und die ebenso unnötige Werbung in der Dash werden Sie los, wenn Sie in den Systemeinstellungen im Modul Privatsphäre die Option Auch Online-Suchergebnisse verarbeiten deaktivieren. Aber dieser Tipp ist ja nichts Neues mehr.

PS: Kennt jemand ein Programm/App, das das Dash-Icon aus dem Dock entfernt und durch ein simples Startmenü mit Suchfunktion ersetzt? Ganz ohne Lenses, Werbung und anderem Schnick-Schnack? Tipps werden in den Kommentaren gerne entgegengenommen. Umstieg auf Gnome, Xfce, LXDE etc. gilt aber nicht :-( Diese Möglichkeiten sind mir bekannt, ich nutze Sie alle -- aber manchmal soll es eben ein möglichst originales Ubuntu sein. Und normalerweise bin ich mit Ubuntu auch recht zufrieden -- einzig die Dash raubt mir zunehmend den Nerv.

23. Juni 2013

Linux Kernel MAINTAINERS Datei

Es könnte die letzte Entwicklerversion des 3.10er Kernels sein, zumindest wenn es nach dem Betreuer des Rests geht.

Daraus könnte auch tatsächlich etwas werden, denn nun kann man tatsächlich von einer Beruhigung der Kernelentwicklung reden: Das Volumen der Änderungen ist auf etwa die Hälfte zurückgegangen und neues kam auch nicht hinzu. Das Wörtchen „add“ wird nur im Zusammenhang mit Fehlerkorrekturen genannt (Bsp: Add NULL check for allocated buffer). Eine der größten Änderungen betraf ein Speicherleck im Kernel-Code. Die nächstgrößeren Korrekturen betrafen Samsungs System-on-Chip-Treiber Exynos und den Hardware-Video-Codec s5p-mfc. Es sind keine größeren Katastrophen zu sehen – im Moment – insofern könnte Torvalds Ansinnen in Erfüllung gehen und es noch im Juni einen neuen Linux-Kernel geben.

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.10-rc1 12 714 9 909 641 289 386 291 12.05.2013 13
3.10-rc2 401 360 4 027 2 927 20.05.2013 8
3.10-rc3 475 521 5 237 2 955 26.05.2013 6
3.10-rc4 207 202 4 000 1 653 02.06.2013 7
3.10-rc5 321 292 2 894 1 403 09.06.2013 7
3.10-rc6 283 241 2 633 1 853 15.06.2013 6
3.10-rc7 161 162 1 311 756 22.06.2013 7
Gesamt 14 568 10 431 658 446 394 893 54

* Tage seit dem letzten rc/Release

Quelle: Linux Kernel Mailing List

Mozilla erzielt Fortschritte mit der Unterstützung der proprietären Medien-Codecs MP3, AAC und H.264. Ab sofort benötigen auch Linux-Nutzer kein Plugin zur Wiedergabe dieser Codecs mehr.

Zur Wiedergabe von MP3, AAC und H.264 wird normalerweise ein separates Plugin benötigt. Seit Version 20 kann Firefox Mobile für Android diese Formate nativ wiedergeben, mit Firefox 21 kam die Unterstützung durch Windows 7 und Windows 8 dazu, mit dem am kommenden Dienstag erscheinenden Firefox 22 wird Windows Vista folgen. Und auch Firefox OS 1.0 kann diese Formate wiedergeben. Mit Firefox 24 kommt dann auch Linux dazu – zunächst standardmäßig noch deaktiviert, aber endlich nutzbar. Die Unterstützung für Mac OS X wird folgen, einen Zeitplan hierfür gibt es allerdings nicht.

Da es sich dabei um keine freien Codecs handelt, kann Mozilla diese nicht direkt mit Firefox ausliefern. Stattdessen bedient man sich an den auf dem Betriebssystem vorhandenen Codecs, im Falle von Windows über das Media Foundation Framework, bei Linux über GStreamer.

Firefox 24 ist derzeit als Nightly Version erhältlich. Interessierte können sich die Version herunterladen und anschließend über about:config den Schalter gstreamer.enabled per Doppelklick auf true schalten. Dann können Audio-Dateien mit MP3- oder AAC-Codec sowie Video-Dateien mit H.264-Codec von Firefox abgespielt werden, ohne dass ein Plugin hierfür installiert sein muss.

Gestern, am 22. Juni 2013, haben sich die Ubucon-Helfer und -Organisatoren gemäß der Ankündigung im IRC #ubucon-de auf irc.freenode.net getroffen und ab 21 Uhr eine Dreiviertelstunde lang über aktuelle Punkte gesprochen.

Protokoll

Folgende Punkte wurden besprochen (es werden die IRC-Namen angegeben, wo notwendig):

Vor-Ort Organisation

Lasall berichtete über die Arbeiten vor Ort. Die definitive Zusage der Räumlichkeiten liegt vor. Die Social Events werden geplant. Wichtig dabei erscheint, dass es bei der Location auch Essen gibt. Weiter wird auch noch eine Stadtführung geplant.

Es werden außerdem noch Unterkünfte/Hotels gesucht, die auf der Webseite für Besucher angepriesen werden, damit die Teilnehmer der Ubucon auch gleichgesinnte im Hotel wiederfinden. Hierfür benötigen die Organisatoren vor Ort noch Unterstützung. Hilfe ist hier sehr willkommen.

Des Weiteren wird darüber nachgedacht, ob der Druck der Eintrittstickets diesmal vereinfacht und professioneller gestaltet werden soll.

Werbung

Werbung bzw. Ankündigungen für die Ubucon werden auf unterschiedlichen Kanälen stattfinden. Es wird darüber hinaus noch ein Gewinnspiel geplant, so dass mehr Aufmerksamkeit auf die Ubucon gelenkt wird. Demnächst wird auch an der Universität Heidelberg geworben, um die Studenten vor Ort anzusprechen.

Nächster Termin

Das nächste Treffen findet nächsten Samstag, den 29. Juni 2013, um 21 Uhr im IRC statt. Jeder, der Interesse an der Organisation der Ubucon hat, ist eingeladen teilzunehmen und sich einzubringen.

Mit Opus haben unter anderem die Xiph.org Foundation, Mozilla und Skype bereits gemeinsam einen freien Audio-Codec entwickelt. Nun arbeiten unter anderem Xiph.org und Mozilla an einem freien Video-Codec, welcher auf den Namen Daala hört.

Vor knapp einem Jahr wurde der Audio-Codec Opus fertiggestellt und von der Internet Engineering Task Force (IETF) standardisiert, womit es sich bei Opus seit dem um einen offiziellen Standard für das Web handelt. Mit Daala arbeitet man an einem freien Video-Codec in Konkurrenz zum nicht-freien H.265 und Googles VP9, bei welchem bislang noch unklar ist, ob Patent-Ansprüche von Nokia verletzt werden.

Christopher Montgomery bezeichnet Daala als Codec der nächsten Generation und erklärt, dass aktuelle Codecs, auch Googles VP9, lediglich inkrementelle Verbesserungen des 25 Jahre alten H.261 seien. Dabei würden zwar noch Verbesserungen mit relativ geringem Risiko erzielt werden können, allerdings steige die für die Verbesserungen benötigte Rechenleistung exponentiell. Mit Daala wagt man ein neues Codec-Design und setzt zahlreiche neuartige Techniken ein. Dazu ist Daala frei von Patenten. Technische Details können der Seite von Xiph.org entnommen werden.

Die Entwicklung von Daala steht noch relativ am Anfang, so dass noch nicht abzusehen ist, wann die Arbeiten an der ersten Version des Codecs abgeschlossen sind und wann Firefox und andere Browser diesen Codec unterstützen werden. Zumindest soll es aber bereits einen ersten Prototyp für einen Encoder und Decoder geben. Wie bei Opus wird eine Standardisierung durch die IETF angestrebt.

MyScript Calculator
Genre Mathematik und Rechnen
Preis kostenlos
Homepage http://www.visionobjects.com

Für heute habe ich eine sehr interessante Mathe-App ausgesucht.

Funktionsumfang

Im Eingabefenster gibt man handschriftlich auf dem Smartphone eine mathematische Formel ein. Die App erkennt die Eingabe und wandelt sie in Echtzeit in einen mathematischen Ausdruck in „Maschinenschrift“ um. Gleichzeitig wird - ebenfalls in Echtzeit - das Ergebnis ausgegeben.

Der Eingabeumfang ist dabei relativ groß. Neben den Grundrechenarten erkennt die App auch Bruchstriche und trigonometrische Funktionen (sin, cos, tan, asin, acos und atan), sowie Wurzeln, Exponenten, Logarithmus, Prozente, Beträge und vieles mehr.

myscriptcalculator

Es können sogar Platzhalter als ? eingegeben werden. Aber Vorsicht: Gleichungen werden damit nur unzureichend gelöst, da nicht eine bestimmte Variable als Platzhalter vergeben wird (z.B. x), sondern jedes ? für sich alleine steht.

Kommende Features

Momentan ist die App noch in der Entwicklung. Auf der Internetseite stellt die Firma Vision Objects (die Entwicklerfirma) kommende Features vor. Dazu gehört eine Integration von Funktionen von Wolframalpha. Das ist wirklich sehr interessant, da dann auch ernsthafte Gleichungen gelöst werden können und auch höhere Mathematik (Ableitungen, Integrale usw.) verwendet werden kann.

Wie man bei den Onlinedemos erkennt, sind auch andere Anwendungsgebiete für Handschritenerkennung in der Entwicklung bspw. Websuche oder Geometrie.

Fazit

Das ist endlich mal eine App, die den Touchscreen von Smartphones und Tablets sinnvoll ausnutzt. Gerade bei umfangreichen Formeln ist es nervig, sie in der bisher üblichen Form mit unendlich vielen Klammern einzugeben. Das intuitive Konzept der App und der bemerkenswerte Umfang werden mit Sicherheit dazu führen, dass diese App nicht dauerhaft kostenlos bleibt bzw. man in Zukunft nur eine Basisversion kostenfrei erhält.

Danke teleborian für den Tipp!

Das BIS hat eine Studie darüber veröffentlicht, wie die Sicherheit in den “giganten” der CMS Systeme aussieht.
Die Studie zeigt, wie die Sicherheit verbessert werden kann, welche Mängel es gibt und auch welche Vorteile diese haben..
Das Ergebniss zeigt deutlich, dass OpenSource CMS’s eine Sicherheit haben, die Kommerzielle Systeme gar nicht haben können, aufgrund Transparenter Bugtracker und schnellen Updates trotz Zeitmangels.
Seht sie euch an, die ist wirklich ein Plus für die OpenSource Welt:
STUDIE!(PDF)